Blog

Blog

par Kristo de Foulonval 25 décembre 2022
Avant-propos La révolution numérique (ou révolution digitale) est aujourd’hui une expression courante en France qui peut se définir comme l’ensemble des conséquences sociétales liées au progrès des techniques de traitement, stockage et transmission de l’information sous la forme numérique. Le mot « numérique » fait débat sur l’élément qui caractérise le plus le caractère révolutionnaire de cette évolution et sur le moment auquel se situe le basculement. Nous n’entrerons pas dans ce débat, tout en soulignant simplement que la transformation analogique en codage numérique 0 et 1 (le bit) et sa transmission à distance (tout aussi important) dans les années 70’, il y a 50 ans, va nous faire changer d’époque. Le débat se fait également sur l’utilisation du mot « révolution » qui désigne à l’origine le renversement d’un régime politique. L’extension de sens à un bouleversement d’ampleur sociétale nous paraît pleinement justifiée. Elle peut être comparée au bouleversement de la révolution industrielle qui a conduit à un changement complexe de l’organisation productive avec la généralisation de « la chaine de production de masse » mais également pour les conséquences sociales de ces bouleversements dans l’organisation du travail. Aujourd’hui, notre constat se veut un point d’étape dans cette révolution numérique en 2022 et une mise en perspective. Ce qui nous semble devoir être retenu est un changement avéré du modèle sociétal dans plusieurs domaines : social avec le réseautage, professionnel avec le travail connecté au sens large, commercial avec le profilage individuel, industriel avec l’IA (Intelligence artificiel), la robotique et le militaire avec les conflits de haute intensité. Chacun de ses domaines a intégré une branche de la technologie numérique et réalisé une adaptation aux besoins de ces utilisateurs en développant normes, produits et services. L’idée du Carnet de notes est de cerner un moment de ce temps qui s’écoule. Introduction L’écosystème numérique s’est développé progressivement mais notre inclusion numérique s’est considérablement accélérée en ce premier quart du XXIème siècle. Il existe une forte connexité (ou e-connexité) qui produit un écosystème numérique dans lequel chacun est inclus. Elle peut se définir comme l’ensemble des relations à double sens (ce qui inclut, par exemple, les « cookies ») avec tout système distant par la voie numérique. Il en ressort à la fois les relations sociales en réseau mais également un univers relationnel plus large. Une partie de notre temps actif est consacrée à se connecter à des services publics, des entreprises productrices de biens et services, des intermédiaires du commerce en ligne, et même des sites du web clandestin, le « Dark web », cet univers de l’Internet au-delà de la légalité. La relation inclusive s’inscrit en premier lieu dans une vision revisitée de l’espace et du temps. La révolution numérique modifie cette relation, à la fois, en réduisant l’espace (très loin devient très près) et en réduisant le temps (plus vite devient tout de suite). Elle engendre une hyperconnexité, une relation numérique permanente avec l’environnement sociétal. C’est le cas en 2022 dans les pays développés grâce à notre nouveau couteau suisse, un terminal personnel, le périphérique qui nous relie à un réseau (smartphone, ordinateur, télévision, montre, écran routier sur son tableau de bord, …). Mon grand-père ne se séparait jamais de son couteau. Il lui servait à couper son pain, sa viande, tailler un morceau de bois, effiler son crayon gras, diviser en deux une feuille de papier, et bien d’autres usages encore. C’était un outil d’abord utilitaire mais également symbolique pour l’homme chasseur, cueilleur, guerrier. Aujourd’hui, on dégaine le smartphone. Addict, on le pose sur la table au cours du repas ; on le surveille comme le lait sur le feu. Il est tout aussi précieux pour l’homme que pour la femme. Il participe à l’égalité hommes-femmes. Il permet le plus souvent un échange apaisé sur les réseaux mais il peut être une lame acérée, un poison qui circule dans une embrouille, ou l’instrument d’un harcèlement, d’une humiliation profonde. L’hyperconnexité est un grand aspirateur fusionnel qui capture l’internaute dès qu’il a posé le doigt sur un clavier. Ce dernier change alors son modèle de relation sociale. Il devient un adepte du réseautage ; il entre également dans une dynamique de transparence malgré lui, souvent sous la pression commerciale du distributeur, de la plateforme commerciale ; il est devenu un paquet numérique monnayable. Dans cette pratique du profilage, l’internaute ne peut plus échapper à la logistique marchande. De même, il ne peut plus échapper à son écosystème numérique professionnel ou domestique. Nous sommes devenus des adeptes de la téléactivité. Peut-on encore imaginer le travail sans être connecté que l’on soit conducteur de grue, conseiller bancaire ou éleveur de brebis ; Le télétravail devient plu facile quand on est aidé par une assistante numérique, une intelligente artificielle capable d’envoyer un message traduit aussi bien en coréen qu’en tagalog. Regardons la réalité ; nous vivons désormais dans le monde de l’inclusion numérique. Pourquoi cette évolution ? Ne soyons pas naïf, l’homo Sapiens a toujours les mêmes racines et recherche à satisfaire ses besoins et désirs associés à ces derniers. Le marketing ne fait que les ajuster à l’écosystème industriel et marchand. Il n‘est que le pourvoyeur des réponses à cette recherche de satisfaction. Explorons… Le phénomène récent est le « big bang « numérique des mises en relation ; à la fois parce que les fournisseurs de cette relation augmentent, et dans le même temps, les contenus proposés également. Il suit le modèle économique de l’externalité de réseau ; une spirale vertueuse où l’usage devient de plus en plus inconditionnel avec l’augmentation de l’usage lui-même. Le public augmentant, il se produit un effet classique d’amplification. La Wifi, la messagerie, les plateformes de vente ou d’information participent à cette évolution sociétale qui grossit comme une boule de neige. Et la société change… Les comportements des citoyens et des Etats se modifient. Le succès français de la plateforme « Le bon coin » depuis 2006 s’inscrit dans ce nouveau comportement significatif. Dans les années 70’, ma tante disparaissait une bonne après-midi ; Et, épuisée d’avoir pris le métro parisien en changeant plusieurs fois de lignes, elle gardait le sourire en montrant d’énormes sacs avec des carreaux rayés rose vichy arborant le logo de Tati. Tati était une enseigne iconique de vente à bas prix créée en 1948 et disparue définitivement en septembre 2021. Aujourd’hui, trouver la bonne affaire et le vêtement bon marché ne se fait plus chez Tati mais sur le net. Dans les années 50’, devenir propriétaire d’une voiture exprimait un sentiment de puissance personnelle et un pouvoir d’ascension sociale. On admirait la bête mécanique en ouvrant le capot, on lustrait encore et encore. Mais ce n’est plus le cas aujourd’hui. Si le nombre de bits numériques, le nombre de cœurs et la vitesse d’horloge fait encore des adeptes de la bête informatique, elle ne concerne qu’une frange de population. Plus généralement, la révolution numérique accompagne l’effet existentiel de notre société contemporaine. Le numérique n’en est pas la cause (voir notre carnet de notes N°3 – le temps de l’existentialisme.), mais il permet d’exister de manière nouvelle et de le faire savoir. Libertaire, Le web peut être un ascenseur social éphémère, celui qui nous donne le statut d’influenceur ou nous étrille cruellement en « écrasant » notre jouissance d’une liberté relative. Pourquoi ce succès planétaire du numérique ? L’arbre du progrès technique puise ces racines dans les sciences et se développe en grandes innovations puis il étend ses branches techniques dans toutes les directions profitant d’opportunités nouvelles utilitaires. C’est le chemin suivi par la digitalisation. En se globalisant, l’arbre de progrès s’universalise dans ses utilisations. Il permet de sauter des étapes technologiques nécessitant des investissements couteux. Ainsi, le passage à la technologie 3G - 4G équipant les réseaux de téléphone mobile a succédé directement à la téléphonie classique dans les pays émergents. L’arbre de progrès du numérique touche de nombreux domaines techniques. Donnons quelques exemples : Les technologies pouvant se doter d’une puce (un minuscule circuit intégré qui mémorise données et instructions) sont aussi nombreuses dans notre environnement que les pixels de notre appareil photo ou de notre télévision. Vous pouvez en trouver de nombreuses dans votre portefeuille (carte d’identité, carte bancaire, carte de fidélité, …), la glisser sous la peau de votre chien, oublier de l’enlever en achetant votre T-shirt ou même demain la faire circuler dans votre système sanguin pour aller observer vos artères. La réduction de taille, l’utilisation de la radio fréquence (RFID), l’augmentation de l’autonomie de minuscules batteries rechargeables au lithium permet d’équiper de nombreux appareils de tout genre ; citons l’appareillage auditif qui est devenu « intelligent », qui grâce à la connexion Bluetooth nous branche sur notre smartphone transformé en pupitre de commande, en transpondeur ou encore en enregistreur de données. Couplé aux systèmes de télécommunications, le numérique permet de suivre instantanément sur notre écran, le parcours routier du chauffeur UBER (une plateforme de réservation d’un véhicule de transport avec chauffeur). Un code d’appairage Bluetooth sur notre smartphone peut nous permet de verrouiller ou déverrouiller les portières de notre voiture à distance. Arrêtons la liste car elle s’allonge tous les jours tel un tsunami technique. Au-delà du progrès technologique constant, Il y a un impact sur la manière de vivre de la société qui justifie l’idée d’une nouvelle révolution sociétale tout aussi importante que l’était la révolution industrielle. Il est souhaitable de distinguer les dimensions visibles de l’évolution (première partie) et les dimensions sous-jacentes durables qui restructurent notre mode de vie en société (deuxième partie). Les dimensions visibles de la révolution numérique. Le réseautage 1. Le réseautage est d’abord une socialisation horizontale. Elle est de grande ampleur. Elle résulte de l’influence grandissante des réseaux de communications en temps réel entre personnes. L’internet est le premier d’entre eux. Cette socialisation a gagné dans un premier temps les adolescents et jeunes de moins de 24 ans, et s’est ensuite étendue à toutes les classes d’âge. L’attrait pour la musique en a été le catalyseur originel. Elle s’est constituée par tranches générationnelles qui s’empilent avec le temps. C’est sans doute le phénomène social le plus marquant de ces 25 dernières années car Facebook n’a pas 20 ans. Il a été inventé en 2004. Youtube (lancé en 2005) touche chaque mois 74% de la population en France, Facebook 49% et WhatsApp 35% (données 2021-2022) [i] . Aujourd’hui, l’évolution de l’offre est telle que les jeunes délaissent Facebook au profit d’autres plateformes comme Youtube et TikTok. Les réseaux sociaux sont une partie des médias sociaux que l’on rencontre sur le net. Les blogs, les forums, les sites de dialogue, les sites de publications, les plateformes collaboratives comme les wikis, font partie des médias sociaux au sens large. La diversification se poursuit comme le note le magazine spécialisé Stratégie [ii] : Supernova, Paco, BeReal, Poparazzi . Etc. Combien parmi ceux-ci seront encore présents en 2025 ? La socialisation est recherchée par l’homo Sapiens pour lequel le lien social est dans sa nature profonde. Les besoins sociaux ont été précisés par les psychologues dont certains ont ouverts la voie du besoin social (Abraham Maslow, Éric Berne,). Le besoin de socialisation apparaît dès l’enfance et se poursuit avec un besoin important : faire partie d’un groupe d’appartenance au-delà de sa famille (ses amis, les autres membres de son club, …). C’est une marche importante vers l’inclusion sociale. Le réseautage sur Internet a multiplié les opportunités d’inclusion. Un adolescent d’aujourd’hui peut-il imaginer ce que représentait une petite ville de Province dans les années 60’. Jacques terminait sa seconde. Le collège et le lycée, les cousins, les voisins constituait son espace relationnel du même âge. Le téléphone était (dans le meilleur des cas) celui des parents. La culture familiale orientait les « bonnes relations » et la participation à la messe du dimanche avant l’achat d’un gâteau à la boulangerie était souvent un rituel ancestral. Le scooter restait encore un rêve éloigné alors que le tourne-disque faisait partie de son univers tout comme les 45 tours. Derrière le terminal, le réseau permet d’ouvrir un champ de contacts que nous n’aurions jamais imaginé avoir dans notre vie. Le réseau d’amis d’amis que nous n’avons peut-être pas souhaité devient réalité. Notre propre popularité grandit avec le nombre de « j’aime » (like). Nous pourrons même devenir un influenceur si nous avons un très grand nombre de suiveurs. ( Followers ). Aujourd’hui, les technologies vont plus loin. Elles permettent la possibilité de rejoindre des groupes virtuels, d’être les héros de jeux vidéo, de jeux de rôle professionnels, de divertissements dont nous pouvons créer la mise en scène. 2. Le temps numérique occupe une part importante de notre temps. Le smartphone, l’ordinateur, la tablette sont plus qu’un simple médium social. Partenaires indispensables de notre relation sociale, ils sont également les partenaires de notre temps actif qu’il s’agisse de notre temps professionnel ou de notre temps libre. La pression du numérique sur notre temps actif est une nouvelle donne sur laquelle nous devons nous interroger. Le net, le réseau social, les plateformes de mise en relation, permettent de se sentir plus à l’aise dans un milieu distant car un contact peut être ouvert ou fermé ou débranché. Le public est celui que nous avons choisi. Le besoin d’appartenance, de reconnaissance, de stimulation nous pousse à entrer dans un cercle relationnel que nous pouvons et souhaitons construire. En ce sens, notre personnalité va jouer un rôle en nous positionnant par le temps passé, le choix de notre occupation, le bien-être qui en résultera ou l’addiction. A l’inverse, le net peut également piéger l’internaute quand celui-ci ne contrôle plus son réseau d’appartenance. Le phénomène est connu. Le net permet d’accéder à des plates formes en marge de la légalité. Il peut nous pousser vers des addictions délétères comme le jeu d’argent. Il peut nous piéger en nous faisant entrer dans une relation sociale destructive. Dès l’adolescence, il nous fait entrer dans l’apprentissage de la vie sociale. Nos choix sont ceux du de la connexion que nous privilégions. Le temps de présence électronique devant notre écran redistribue notre temps disponible. Plusieurs études montrent que le réseau social permet de gagner du temps pour favoriser les rencontres avec ses pairs [iii] . Cela semble aller de soi, car attendre pour convenir d’une rencontre n’est plus tolérable avec le ressenti d’un temps qui s’accélère. Selon l’enquête annuelle du CREDOC [iv] 56% des plus de 15 ans consultent quotidiennement un réseau social en 2020 contre 41% en 2018. On peut affirmer que nos choix relationnels fonctionnent différemment en 2022 que depuis le temps auquel Facebook a été lancé en 2004 ? Les experts peinent à qualifier le comportement du réseauteur et à déterminer si l’accès au net favorise et renforce réellement le lien social. En effet, un lien social numérique n’est pas un indicateur de sociabilité. Un consensus apparaît en ce qui concerne le développement quantitatif de liens faibles c’est-à-dire de contacts exploratoires plus ou moins suivis. Ils ne constituent pas un indice de sociabilité durable. Le nombre ne fait pas la qualité et le réseauteur compulsif ne s’inscrit pas dans cette démarche. Un lien fort par le réseau social semble plutôt renforcer le relationnel physique chez les jeunes internautes. Plus de messages veut donc dire plus de rencontres entre amis, plus de socialisation avec son groupe d’appartenance. Par exemple, le scoutisme associatif en France et dans le monde est loin d’être en déclin. La fréquentation du net ne semble pas pousser vers un isolement social. Notre temps numérique à temps égal gagne en densité et en diversité sociale. Il enrichit notre relation à l’environnement et notre socialisation. Le réseautage ne la fracture pas, il la module. 3. Le réseau est aussi une bulle informationnelle vivante et permanente . Si une partie du temps resserre des liens communautaires, une autre est consacrée à l’information ouverte. Le réseau devient une porte ouverte sur la société. Le journal papier a un devenir fragile et le journal en ligne est loin d’être la source d’information de l’Internaute. L’internaute considère son réseau comme plus riche en diversité d’opinions. Il semble plus sensible aux arguments provenant de ses propres relations sur le web pour élaborer sa position. Le réseau ne garantit pas l’information. Quand il est sous un contrôle strict d’une gouvernance privée ou publique, il présente les mêmes défauts qu’une presse d’opinion. Quand il est très libéral, il s’ouvre à la manipulation, au complotisme et aux « fake news ». Ce qui a changé, c’est que notre libre-arbitre est beaucoup plus sollicité devant la quantité croissante d’informations qui nous parvient dans un temps équivalent. Le réseau ne se contente pas de nous fournir de l’information, il la construit pour nous. Ce dernier pourra même construire notre propre album photo des meilleurs souvenirs de l’année à notre demande (ou sans) et le transmettre ce dernier à nos amis. Il sélectionnera pour nous ce qu’il croit être notre attente. Pourquoi ? C’est une logique marchande qui doit pouvoir générer une meilleure fidélisation et plus de « clics » promotionnels. Dans le même temps, il restreint notre univers et assèche notre curiosité. Il nous rend paresseux et fige notre propension à sortir de notre bulle. 4. Une structure d’accueil collaborative est une dimension originelle du réseau. Elle l’est par nature à partir du moment où le réseau permet l’échange de contenus, leur conservation et leur modification. Elle ne remplace pas le club associatif local mais permet un élargissement à des activités plus diversifiées. Chacun va pouvoir intégrer sa création personnelle, créer une œuvre collective et en organiser un contenu. C’est le cas de Wikipédia , une encyclopédie universelle collaborative. Wikipédia en français est créé en 2001 avec quelques dizaines d’articles. En 2022, le support numérique français compte près de 2,5 millions d’articles et l’encyclopédie mondiale près de 60 millions en 300 langues dans le monde. Bien que son apport soit universellement salué, et toujours financé par des dons, la fiabilité de ses sources et la neutralité du choix des articles publiés restent un sujet qui fait débat comme dans toute publication destinée au grand public. Le collaboratif s’est également développé dans d’autres domaines comme celui du financement participatif, une levée de fond à des fins de projet personnel auprès de plateformes spécialisées ( crowdfunding ). Depuis 2019, et la pandémie de la COVID19, les plateformes collaboratives professionnelles se sont multipliées. (Comme Slack, MS Teams ou Google Workspace). Elles permettent une collaboration distante entre salariés d’entreprise le plus souvent autour d’un axe spécifique. 5. L’entreprise privée est actrice des réseaux sociau x. Elle ne peut prendre du retard pour y entrer sinon d’autres le feront. Les grandes marques l’ont bien compris. La marque, n‘est pas que l’expérience du produit que l’on mémorise, elle se veut notre confidente, notre amie sur le réseau social. Elle souhaite personnaliser sa relation avec nous. Elle pourra former un groupe de fans, en devenir le leader et nous inviter à participer. On se lève tous pour Danette , un célèbre slogan de 1980 pour une marque de crème dessert, réactualisée (nostalgie, vintage à la mode), il est devenu pour quelques temps « toujours debout pour Danette ». Les « communautés de marque » regroupent les « passionnés » qui vont relayer son image, ses valeurs, son vintage, sa communication... Le réseau social donne un sens existentiel à l’acte d’achat. Il prolonge le lien relationnel et sociétalise la relation commerciale. 6. Le réseautage n’est pas toujours un jardin d’Eden. Le réseau embrigade toutes les composantes de la société. Il est parfois la « cour des miracles », un espace de non-droit célèbre sous l’Ancien Régime. Abus de pouvoir idéologique, harcèlement moral, arnaque, fausses informations volontaires ou non, …. La liste est longue et la marche vers une maturité plus intégrée dans les normes sociétales évolue vers un équilibre. Nous portons la société sur le net et notre réseau relationnel reste poreux. Libéral, Il est difficile à entretenir. Le complotiste devient plus organisé, plus associatif, plus volontariste. Il peut être instrumentalisé par des gouvernements, être enrôlé pour délivrer une information spécifique. Ces nouveaux corsaires du net fleurissent et s’inscrivent dans la cyberguerre devenue permanente. Même en restant chez nous sans bouger, notre numéro de carte bancaire peut se retrouver dans une adresse IP située à des milliers de kilomètres. Le réseautage a mondialisé la dimension sécuritaire. L’arnaque a aboli les frontières de la petite délinquance. Le délinquant ne s’attaque plus à votre bas de laine ou à votre coffre-fort, il vous extirpe l’information avec des leurres. L’hameçonnage ( phishing ) est redoutablement efficace. L’outil juridique et pénal peine à s’adapter à l’évolution des réseaux sociaux comme la relève, parmi de nombreux autres, ce rapport du conseil fédéral suisse en 2011 [v] . Ce dernier évoque la fragilité de la frontière entre auteur, producteur, exploitant et utilisateur, de même que celle entre communication privée et communication publique. Celle-ci devient de plus en plus floue comme l’est un No man’s land . 7. Le réseautage de demain se stabilise . La mutation a été profonde. Notre relation sociale s’est modifiée, notre comportement humain s’est modifié durablement, celui de nos enfants et de nos parents également. Nul n’est surpris par cette affirmation, cela n’est pas évident car il est parfois difficile de voir le monde en mouvement. Mais qui se souvient de notre mode de vie relationnel il y a 25 ans en 1997 ? A cette époque, le « minitel » (un terminal télématique permettant d’accéder à de nombreux services) tient encore la vedette dans les foyers français. Imaginer ce que sera le réseautage 25 ans plus tard. Il n‘est pas dans les esprits les plus visionnaires de l’époque. 1997, c’est seulement l’époque des premiers réseaux sociaux comme Sixdegrees qui avec d’autres échoueront à ouvrir le marché [vi] . Comment peut évoluer le réseautage ? Le succès moindre de Facebook, qui est cependant toujours N°1 en 2021, semble montrer une évolution qualitative. C’est un phénomène extrêmement classique dans le domaine de l’évolution des marchés, celui de l’absorption, de la fragmentation et de la différenciation. Le théorème : Tout marché nouveau en croissance voit arriver de nouveaux entrants et se segmente au bout d’un temps plus ou moins long ( Tik-Tok par exemple sur le segment des jeunes en 2022). Il évolue sur la base d’une plus grande valeur ajoutée des segments qui le constituent. Linkedin est un autre exemple de différenciation rapide avec une valeur ajoutée qui lui a permis d’accéder au leadership dans le secteur professionnel. Créé en 2002, il est concurrencé en 2004 par Viadeo . Ce processus de segmentation et de différenciation va se poursuivre. La mise en perspective du développement des médias sociaux repose sur un besoin humain millénaire de la sapiensité, celui de voir, de parler, d’échanger. Il n’y aura pas de retour mais des évolutions techniques. Par exemple, l’évolution vers une vision en 3D est une évolution technologique qui viendra conforter ce besoin sans en modifier les fondements. Elle devrait permettre une dimension affective supplémentaire et « Mybot » notre robot à tout faire nous projettera peut-être en 3D l’image holographique de notre correspondant. Il suffira de poser son smartphone pour louer un Mybot dans tous les lieux imaginables et ce dernier sera notre terminal intelligent au cours d’un déplacement tous comme nous louons un Velib . La traduction instantanée multilingues participera à la sociétalisation planétaire en particulier dans le domaine professionnel et scientifique. Plus difficile à prévoir est l’évolution sociale. Ainsi, une socialisation excessive pourrait modifier la convergence de la dynamique sociétale et conduire à un repli communautaire plutôt qu’à une uniformisation. L’accroissement du besoin existentiel (l’homo Existentialus se substituant à l’homo Sociologicus) pourrait aider à ce phénomène. La nouvelle radicalisation sociétale que l’on observe dans les années 20 (de ce siècle) n’est peut-être pas une simple coïncidence ou un phénomène cyclique. L’hyperconnexité 1. Elle se vit au bout de doigts . Si certains préfèreront utiliser le mot hyperconnectivité, le mot hyperconnexité me paraît refléter une vision plus descriptive d’un état permanent. Elle est visible dans l’agilité des pouces et des doigts de la main. L’utilisation prolongée de la souris provoque une tendinite connue sous le nom de syndrome de la souris. Bien qu’anecdotique, elle est révélatrice d’une connexion intense et d’un changement d’époque. L’hyperconnexité est une relation à double sens avec un système distant. Le phénomène récent est la multiplication à la fois des fournisseurs de cette relation et des contenus proposés. La Wifi, la messagerie, les plateformes de vente ou d’information en sont des exemples. Ils participent à cette sociétalisation planétaire par la connexion De manière extensive, l’hyperconnexité est le résultat volontaire et subi de la répétition de ces gestes nous mettant en lien avec un système distant. Elle peut être liée au net ou concerner un domaine plus large de la vie connecté du citoyen dans son foyer, au travail, en voyage. 2. Le temps s’efface dans un continuum temporel . Envoyer et recevoir « à tout instant » une photo, une vidéo, un message, une alerte, est un nouvel environnement auquel nous nous sommes s’est très vite habitués. Une telle sollicitation répétée efface le décompte du temps, jusqu’à la conscience d’un hier et d’un demain. Elle engendre un concept plus large de redistribution de l’espace et du temps à la fois en l’élargissant (plus loin) et en le réduisant (plus vite). Nous pourrions ajouter une liste sans fin de notre inclusion numérique : allumer le salon avec notre smartphone, ouvrir la porte d’entrée à un livreur, transférer ou déclencher notre fichier MP3 sur notre enceinte portable par une connexion Bluetooth, regarder et écouter notre caméra qui surveille notre bébé, envoyer directement chez le cardiologue notre fréquence cardiaque, (anticipons) mettre l’hologramme de notre petite amie en 3D sur notre écran de télévision, … C’est la commande aux mille usages loisir, santé, sécurité, achat et vente, confort, … 3. l’hyperconnexité est un gain de temps sociétal, global et pour chacun. C’est de l’holisme numérique ou plus simplement, c’est le chemin par lequel ce gain de temps gagne ces lettres de noblesse en produisant du temps global disponible. Cette capacité technologique redistribue le temps, le temps de travail comme le temps libre. La mise à jour du logiciel de la Tesla est de même nature que la réparation de la panne du télescope spatial Hubble depuis la terre (avec un peu moins de distance mais à presque 300 000 km par seconde, ….). Elle surprend car cette connexité nouvelle concerne une voiture électrique qui n’est plus totalement une simple voiture électrique pour se déplacer quand l’envie ou la nécessité l’exige mais aussi un flux numérique d’aide, d’information, de mise à jour, de régulation au sens quasi-régalien. Elle colle en permanence à la connexion hertzienne qui nous relie au centre de contrôle, je veux dire au centre de services car je suis pleinement entré dans l’inclusion numérique et je suis un « homo Digitalus ». Le profilage du consommateur. 1. « Le client est roi » est une formule datée. Cela fait longtemps que l’importance du client dans un univers commercial concurrentiel s’est inscrite dans la société de consommation. « Le client est roi » est devenu le premier verset de la bible des vendeurs et des marketeurs. Au fil du temps, la relation à la vente s’est cependant modifiée avec le développement du supermarché en libre-service. La relation que le client entretenait avec le vendeur de fruits et légumes ou la bouchère a disparu. Il fait ses courses et paye à la caisse du supermarché. Le client est anonyme et le gérant du supermarché aligne ses produits suivant les consignes qu’il a reçu de sa centrale d’achat. Cette dernière qui a des hommes de talent va pouvoir analyser la rotation à l’achat de cette boisson gazeuse nouvelle à la citronnelle et soit la maintenir, soit l’enlever du rayon. Vous n’êtes plus un client, vous êtes devenu un consommateur parmi d’autres et vous faites partie d’un segment de marché. Aujourd’hui, depuis quelques années, l’acheteur redevient le roi et un client en chair et en IP (Internet Protocol – l’adresse réseau de votre périphérique). Que s’est-il passé ? La révolution numérique de collecte de données en masse a ouvert un nouveau chemin. Notre profil va être recherché par le fabricant de produits comme si nous étions le sauveur. N’exagérons pas, car ce n’est pas le gérant du supermarché en personne qui traque le client mais la plateforme de vente en ligne, la marque du produit qui a été acheté, la société de collecte de données, et bien d’autres. Selon une étude d’Opinion Way & ReachFive menée en 2019 auprès de118 entreprises françaises, 78% des entreprise collectent des données brutes et 51% des données comportementales [vii] . Le profilage commercial du client a été longtemps constitué par la bonne technique du vendeur ou le bon relationnel du commerçant. Ces pratiques étaient loin de celles des renseignements généraux et du fichage qui répond spécifiquement à un besoin institutionnel. Et, rien d’étonnant qu’un président de la République soit fiché et se retrouve dans un carton top secret exfiltré de la maison blanche. Si le profilage et le fichage d’un potentiel terroriste est admis aujourd’hui par la plupart des citoyens, celui de l’opposant politique ne l’est pas dans les démocraties. Il a longtemps été une tentation de toute gouvernance. Il a créé de la méfiance auprès de la population et le profilage reste un sujet politiquement sensible dans la société actuelle. L’outil s’est modernisé grâce au numérique et, dans le même temps, un cadre juridique a endigué les tentations de l’Administration, des associations, des partis politiques, et de l’entreprise privée. Ces institutions sont devenues au fil du temps adeptes du profilage et du croisement des données. Rappelons qu’en France, La Commission Nationale de l'Informatique et des Libertés (CNIL) a été créée par la loi Informatique et Libertés du 6 janvier 1978. Sur le territoire de l'Union européenne. Le nouveau règlement européen sur la protection des données personnelles RGPD (ou GRPD, General Data Protection Regulation) est entré en application le 25 mai 2018. Toutefois, ce qui est nouveau, c’est l’objet et l’étendue de ce profilage pour des raisons commerciales. Notre modèle de consommation a évolué et la part des dépenses des ménages va bien au-delà de celle des dépenses de subsistance. Nous restons des acheteurs, et un acheteur muet est la pire des choses pour un vendeur. A distance, un acheteur derrière son écran, c’est insupportable. Classiquement, les panels de consommateurs (de larges échantillons représentatifs des consommateurs) suivent les achats et ciblent plusieurs catégories de citoyen, classes sociales A B C ou D, une classe d’âge, types d’habitat urbain, semi rural, rural. Ils orientent le marketing des produits existants et guident le choix publicitaire des médias. Ils n’individualisent pas le consommateur. Aujourd'hui, l’aspect commercial revient sur le devant de la scène. Le consommateur qui intéresse, c’est celui qui trace une ligne identifiable sur Internet. Il a acheté auprès d’une plateforme de commerce en ligne une machine à café et il a laissé son « empreinte » numérique. Il a regardé les modèles de lit pour enfant sans l’acheter, ou bien encore, Il a commandé une pizza 3 fois cette semaine ce qui le fait sortir du lot. La simple collecte de l’identité numérique (notre adresse IP ou notre adresse mail) est essentielle pour suivre les achats en ligne d’un client, lui faire des offres. L’accent est mis sur la personnalisation et donc l’individualisation du client, son profilage, ce qu’il a cherché, ce qu’il a vu, ce qu’il a acheté, ce qu’il a évalué. C’est le sésame de l’ouverture numérique de la relation vendeur-client. Elle va s’inscrire durablement dans nos comportements de « homo Digitalus ». Bref, un bon algorithme de profilage (à partir de l’empreinte numérique laissée et de l’adresse IP) va permettre d’envoyer des offres promotionnelles en ligne sur ordinateur et sur smartphone (regardez dans la catégorie « spam »). Le client pourra être tenté par une offre spéciale de son distributeur favori surtout si celui-ci lui offre une carte de fidélité gratuite. Qui dit profilage, dit recueil des achats, profil du client, réponse promotionnelle et avantage-client pour une fidélisation. La personnalisation de la relation avec le client est de retour. Par exemple, Si l’internaute a commandé le dernier roman primé, il recevra peut-être sa liseuse en prime avec une offre spéciale pour trois autres romans. Son adresse courriel a pris de la valeur. Elle pourra être revendue par l’un des fournisseurs. Le client-roi est mis à nu par le profilage mais il a un nouvel habit qui a de la valeur pour un démarcheur. Dans le même temps, il personnalise sa relation avec ses partenaires habituels. Il aura une connexion personnalisée avec sa banque, son administration, son opérateur téléphonique, … C’est son « espace client ». Il n’est pas en dehors de la banque, il est dedans. Aura-t-il pour autant une relation personnalisée (mais non personnelle) avec son conseiller ? Oui car c’est inscrit, noir sur blanc, dans la charte de la personnalisation. Il est bien le roi. La politique de la marque de produits ou de service aura pour mission d’être là pour lui, et d’entretenir une relation privilégiée, client roi oblige. Cette politique pourra déborder l’aspect commercial lié au produit en lui offrant des petits cadeaux ou de grandes opportunités. Par exemple des opportunités d’acheter des billets à prix réduit pour un concert qui correspond au profil élaboré par un IA-bot ou « yabot » (robot analyste doté d’une intelligence artificielle qui succède au chabot) ; Une politique relationnelle sera établie pour qu’un lien favorable se concrétise. L’affectif est à portée de « clic ». L’hyperpersonnalisation du client est bien un changement de modèle commercial qui succède à la relation distante de la grande surface et à la pratique du ciblage publicitaire d’un segment de marché. 2. Le client-roi, un consommateur sous influence . Oui, il est conditionné pour ne rien manquer. Le « cliquer pour acheter » est un bouton déjà apparu sur la plateforme Tik Tok . Vous avez un coup de cœur, vous appuyez sur le bouton et en quelques heures, vous avez votre achat entre les mains car vous avez déjà enregistré votre paiement sécurisé. Cela confirme la relation de proximité entre le réseau social et la marque. Dans Le modèle de rationalité limitée du consommateur proposé avec succès par l’économiste Herbert Simon [viii] , il reste encore une partie de rationalité. Ce modèle est de plus en plus mis à mal dans l’hyperpersonnalisation. Ce n’est plus le client qui tente de garder de la rationalité dans son choix, c’est le profileur qui rationalise le futur acte d’achat. En se faisant, il discipline le client qui entre dans un tunnel de confort. Pris en charge par une main invisible, il devient plus réceptif aux messages d’alerte. La tentation sera d’autant plus efficace qu’elle a été préparée par une analyse expérientielle. Par exemple sur le site de vente en ligne, le vendeur vous annonce qu’il ne reste seulement que quelques produits en stock. Vrai ou faux, c’est une invite pour le procrastinateur qui souhaiterait s’abstenir. Elle ne fonctionnera que si vous êtes dans la bonne case du « profil favorable à acheter le produit ». L’argumentaire du vendeur n’a pas beaucoup évolué, mais il n’est plus la clé essentielle. Ce qui compte c’est mettre en phase le besoin du client et le produit au bon moment et au bon prix Cela n’est pas original mais la réussite de cette rencontre multipliée par plusieurs milliers fera la différence même si elle se fait sur une page web. Et elle prendra moins de temps. Vous pensez que l’on peut encore faire plus. Vous avez raison. Pourquoi ne pas proposer une nouvelle approche immersive du consommateur mettant en scène sa vie physique et sa vie numérique dans une fiction. Le web3.0 est une expression qui désigne cette nouvelle approche du consommateur par les marques. La plus connue est celle du Métavers, le futur Meta (l’ancien Facebook de 2021) qui vous fait entrer (qui aimerait) dans un monde virtuel. Vous voulez maigrir, vous le ferez virtuellement avant d’acheter votre régime alimentaire. La concrétisation de votre désir est sur le net ; 10kg - 20 kg, votre nouvelle image est à portée de clic. Attention à ne pas rester dans le rêve ! Avec le temps du numérique, vous ne regardez plus l’écran de votre smartphone, vous êtes dedans. Vote terrain d’enchantement ne sera plus le grand centre commercial où vous flânez le dimanche mais le site virtuel auquel vous avez relié votre casque de réalité virtuelle. Cette technologie interactive va modifier les outils de promotion par une réception proprioceptive plus émotionnelle. Soyons prudent, Il faudra encore quelques années avant de trouver la bonne formule… Ce qui est avéré en 2022, c’est que le déplacement au magasin n’est plus aussi nécessaire qu’auparavant. Demain, le futur catalogue virtuel en 2D et demain en 3D devient plus riche que le plus grand magasin de jouets du quartier. Le besoin de conseil sera assuré par les forums (devenu indispensable) ou le réseau relationnel, la confiance sera assurée par les avis des internautes et par l’image de la marque. 3. De la fidélisation à l’abonnement . On se déplace moins pour acheter ; on consomme plus à domicile en renouvelant sa consommation. Cela va au-delà de la simple facilité. La relation avec le vendeur ayant disparu, elle est remplacée par le débit entrant de la promotion, et le débit sortant du paiement en ligne. La route du commerce s’ouvre à liberté de choix et à la volatilité. Pour le producteur et le distributeur c’est la route inquiétante de l’indétermination des commandes. La carte de fidélité est un premier outil de réponse. Elle limite l’évasion car le coût d’acquisition d’un nouveau client en milieu concurrentiel est devenu un investissement coûteux. La fidélisation n’est pas une nouveauté dans la relation acheteur-vendeur. Elle sous-entend de la confiance et de l’engagement dans la durée de la relation. Elle fonctionne avec un modèle de récompense qui valide le statut à cette relation. Le « sticker » que l’on colle sur un carnet a laissé la place au point numérique. C’est un patch régulateur qu’il faut maintenir pour atténuer la volatilité. L’abonnement est une évolution majeure. Il devient aujourd’hui l’outil stratégique privilégié pour une consommation de service répétitive en ligne. Il sert de balancier au manque de lien humain dans la relation commerciale mais il est avant tout une autre manière de concevoir la relation avec l’acheteur. Le produit associé au service est devenu un flux continu de consommation que l’on vend sous forme de durée. Aujourd’hui, pour utiliser le logiciel Excel de Microsoft - et sa mise à jour à distance - , il faut s’abonner pour une durée déterminée alors qu’il y a seulement dix ans, le client pouvait acheter le logiciel en magasin et l’implanter sur son ordinateur. Le jeu vidéo est l’exemple d’un autre marché de consommation qui s’est transformé. L’achat du jeu au supermarché s’est transformé en abonnement en ligne et en jeu distant à la demande ( cloud gaming ). L’arcade de jeux vidéo sur console a un avenir très incertain malgré la relance vers la réalité virtuelle. Dans le cas de l’abonnement, le client devient plus dépendant de la marque ou de l’enseigne. Outre le coût du changement (coût de sortie) qui est plus élevé, il est lié par un parcours éducatif d’utilisateur. L’expérience qu’il va acquérir est soumise à des mises à jour régulières qui resserrent le lien avec le produit - service. La mise à jour devient une offre avec plusieurs qui se commercialise comme un produit. C’est un autre trait du changement du modèle commercial qui s’opère avec la vente de flux numérique. Pour le vendeur, le client reste le roi mais il a tissé un fil solide plus difficile à rompre. La téléactivité plus que le télétravail. Le travail à distance (télétravail) est une activité professionnelle dans un lieu éloigné du site de l’employeur à domicile ou dans un lieu dédié ou simplement de manière nomade. La pandémie de la COVID19 a accéléré ce mouvement dans le domaine des services. Elle est aujourd’hui admise par le patronat et parfois encouragé. "Mon voisin et son épouse ont chaque semaine une journée de télétravail. Lui s’occupe des dossiers de crédit dans une grande banque, elle ; elle est conseillère juridique dans un grand cabinet. Une partie de leur activité ne nécessite pas de présence au bureau. Mais ce n’est pas aussi simple qu’il n’y parait. Que ce soit dans le domaine bancaire ou juridique, Il est souvent nécessaire d’obtenir des documents certifiés, des actes notariés, des actes administratifs authentifiés comme certaines procurations. Leur responsabilité juridique étant engagé, ils ont passé quelques moments difficiles." C’est donc tout un système dématérialisation qui s’est mis en place. Il a été renforcé au moment de la COVID19. Le travail à distance fait partie d’un système. Il ne peut s’étendre sans une extension large de la dématérialisation, par exemple avec une capacité à sécuriser et à authentifier les échanges. 1. Le travail à distance s’installe durablemen t. Même s’il fait encore aujourd’hui l’objet de débats contradictoires sur sa performance réelle, il trace son chemin comme la composante d’un système hybride. Le télétravail à domicile semble effectivement en phase de recherche d’optimisation entre le besoin de présence et le travail à distance. Il reste discuté sur la forme qu’il doit prendre. Par exemple, la proximité de la famille reste un élément perturbateur et le choix d’un espace partagé ( coworking ) peut être une solution. Par ailleurs, le présentiel reste souvent nécessaire soit parce qu’une relation sociale de groupe est la source d’une ambiance positive favorisant l’esprit d’équipe, soit parce que l’activité professionnelle nécessite apprentissage et échanges. Pour l’entreprise, le télétravail peut être un facteur de flexibilité et répondre au frein que représente le trajet domicile-travail lorsqu’il est long. Si la révolution numérique facilite le télétravail, ce dernier ne semble pas être aujourd’hui être central dans la réorganisation du travail. Les réunions de travail en distanciel apparaissent comme une commodité et un facteur d’économie. Elles sont des options sur la table plus que des obligations. Le télétravail se discute sur le plan sociétal avec encore des interrogations. Améliore-t-il le bilan carbone, améliore-t-il le confort psychologique, améliore-t-il la qualité du temps travaillé, etc. ? Autant de questions qui ne font toutefois pas douter les gouvernances sur un bilan global positif du télétravail. Le télétravail nécessite également une relation de confiance car celle-ci peut être altérée par une télésurveillance à distance excessive. Dans les entreprises où le contrat de travail est librement négocié et le syndicalisme absent, il est tentant de rechercher des collaborateurs distants habitant dans des régions où le pouvoir d’achat est beaucoup plus faible. 2. La téléactivité généralise de l’usage du net dans notre activité quotidienne . Elle se caractérise par un usage d’internet aussi bien dans l’activité professionnelle que personnelle en vue d’une tâche hors d’une activité sociale ou de loisirs. Elle prend de nombreuses formes. La téléactivité professionnelle de bureau se caractérise par un environnement de plus en plus connecté. L’écran d’aujourd’hui n’est plus ce rectangle unique avec ses 40 cm de diagonale mais une kirielle d’écrans multiples de grande taille. Qu’il s’agisse d’une activité de service, d’une activité industrielle ou d’une profession libérale, la téléactivité est présente à tout moment et en tout lieu Elle fonctionne avec un réseau étendu de sources de données permettant un travail en temps réel. C’est ce gain de temps à travers l’architecture de réseau et le traitement des données qui permet une amélioration sans égal de la performance opérationnelle. Les cybers attaques des hôpitaux publics et privés montrent le décalage qui existe entre une activité quotidienne avec ou sans le support numérique. Temps perdu avec le retour du papier crayon et de la feuille écrite, absence de données sur le personnel disponible, absence de connaissance des stocks de médicaments et autres produits de santé, impossibilité de consultation des archives et des dossiers médicaux, … La croissance des besoins pour archiver les données a été transformé avec le système d’archivage en ligne à distance. Si Le temps du disque dur interne de l’ordinateur personnel s’efface devant le recours au « cloud » un espace de stockage proposé par les opérateurs informatiques, c’est également vrai pour les entreprises privées. Par ailleurs, le temps de connexion personnel derrière un ordinateur ou un smartphone pour communiquer avec les services privés ou publics augmente. Obtenir un acte d’Etat civil, programmer un paiement mensualisé sur son compte bancaire, imprimer un contrat de fourniture d’électricité, consulter ses remboursements de maladies, envoyer une lettre recommandée en ligne, etc. ne sont que quelques exemples. Nous sommes dans un monde connecté et notre activité domestique consacrée à cette connexion va continuer à augmenter. Soyons clair, ce temps numérique nouveau prend sur notre temps libre mais il libère essentiellement du temps de déplacement. Nul doute, qu’un équilibre à trouver se profile à l’horizon. L’assistance intelligente. L’assistance intelligente s’inscrit dans le domaine plus large de l’intelligence artificielle. L’idée de l’intelligence artificielle est de reproduire le système de pensée de l’homo Sapiens [ix] et de faire mieux (bien que faire mieux reste une définition floue). Pour savoir si une machine peut penser comme lui, le scientifique évoque historiquement le fameux test de Turing (inventé par Alan Turing en 1950). Il permet une mesure de l’avancée d’un système d’intelligence artificielle face à l’intelligence humaine. Il n’est pas conçu pour détecter la conscience qu’une machine aurait de son existence (un débat qui risque de sombrer dans l’incomplétude au sens philosophique). 1. L’assistance intelligente devient indispensable . Sans elle, nous sommes assurés de décrocher avec le temps numérique. Elle rend plus performante la prise de décision ; Pour se faire, elle combine, la création d’algorithmes dédiés reproduisant la logique humaine, l’utilisation de sources de données acquises et à acquérir et, ne l’oublions pas, un objectif fonctionnel. La compréhension de la question et la rapidité de la réponse en font un outil performant. L’algorithme est souvent perçu comme la formule magique de l’alchimiste du moyen âge. Ce n’est pas faux, car la mise au point d’un bon algorithme passe par de nombreux essais exploratoires. L’intégration de l’expérience humaine est encore aujourd’hui un facteur essentiel de la performance progressive de l’algorithme. On aurait tort de penser qu’il peut aisément maîtriser les milliards de combinaison d’une architecture spécifique bien plus complexe qu’un simple schéma arborescent comme l’explique David Larousserie[x] . Un autre facteur est la vitesse de la réponse à une problématique. Ce facteur joue un rôle crucial dans le domaine industriel et militaire. Par exemple le pilotage d’un avion de chasse en territoire ennemi est soumis à un environnement qui ne peut être maîtrisé par le pilote sans assistance intelligente numérique. Quel que soit le sujet, et quelle que soit son degré de performance, l’assistance intelligente se caractérise par une aide à la décision. 2. la machine qui échappe de manière consciente à l’humain est une fable . Elle trouve ses racines dans la peur ancestrale de l’homo Sapiens face à sa méconnaissance et à la peur changement. Comme toute machine hors contrôle technique, elle peut devenir un danger létal. Citons en exemple, l’histoire récente du 787 de la société Boeing. C’est un avion qui a été doté d’un programme de vol automatique correctif sous certaines conditions précises de vol. Mais ce logiciel n’avait pas prévu la réaction des pilotes face à certaines situations de vol dont ils ignoraient la possibilité. Deux accidents tragiques ont amené à la suspension des vols de ce modèle d’avion pendant de nombreux mois . Cela montre que même avec les meilleures intentions et une technologie que l’on pense parfaitement maîtrisée, l’IA demande une relation homme-machine exigeante. Si l’IA alimente l’imaginaire, nous n’avons aujourd’hui aucun indice permettant de croire à une domination volontaire de la machine sur l’homme. Cela n’exclut pas la possibilité d’une prise de contrôle technique avec une intention malveillante. Comme pour de nombreux automates programmables, tout programme numérique autonome devrait pouvoir être stoppé par un système alternatif de contrôle. La conduite de la Tesla révèle bien la difficulté d’adaptation lorsque de manière intentionnelle ou non, la machine enclenche un programme que l’on ne maîtrise pas. Là encore le temps pour comprendre la situation est court. Une Tesla peut atteindre 100 km/h en quatre secondes. Sauf à avoir un gros bouton d’arrêt rouge pour contrecarrer un état de conduite en panique et stopper la voiture en urgence, les conséquences d’une perte de contrôle peuvent être dramatiques. Cela a été le cas pour plusieurs automobilistes dont seul l’absence de contrôle humain permet d’expliquer leurs accidents. La création d’un robot tueur se substituant à un soldat est tout aussi vraisemblable que la manipulation génétique d’un virus ou l’usage d’une arme chimique. De telles options relèvent du domaine politique. Les technologies numériques et de communication évoluent pour permettre une moindre exposition de l’être humain en cas de conflit armé. Les drones dans les airs ou en mer, les robots armés sur terre sont les combattants connectés de demain. Paradoxalement, ces solutions robotiques qui visent à préserver les vies des combattants humains semblent déplacer la confrontation militaire vers les civils. Moins à l’abri que les militaires, les civils, les habitations, les commerces, les structures d’assistance médical, deviennent des cibles considérées comme stratégiques. De même, nous n’entrerons pas dans le débat de l’inventivité d’une intelligence artificielle car c’est également un faux débat. Il est tout à fait possible de créer une machine qui invente que ce soit dans le domaine artistique ou scientifique. C’est plus un problème de définition du mot invention que de technologie. On peut aujourd’hui inventer un médicament de synthèse sur la base des informations d’une base de données. Par ailleurs, la créativité probabiliste et aléatoire est également une réalité. Elle peut imiter le processus de conscience du bien et du mal mais ne sait pas encore entrer dans un processus de régulation collective. Et cette étape supplémentaire ne supprimerait pas le besoin revendiqué d’asservissement de la machine au profit de l’humain. 3. l’assistance intelligente professionnelle continue de se développer rapidement au cours de ses dernières années . Cette rapidité met en lumière certaines limites dans la relation homme-machine. L’exemple suivant est édifiant Après avoir mal digéré des oies sauvages dans ces réacteurs, le commandant de bord s’est retrouvé à quelques milliers de mètres d’altitude sans moteurs. Aucun système d’intelligence artificielle n’est venu lui porter secours et il a pris la décision de planer pour se poser sur la rivière Hudson. Dès qu’il eut pris cette décision, il demanda à ces ingénieurs de bord de consulter le manuel technique. Il n’y avait pas d’intelligence artificielle à bord permettant de répondre à la question Quel processus suivre pour se poser sur l’eau quand on est à peine à quelques milliers de mètres sans moteur ? les ingénieurs de bord n’ont pas eu le temps de consulter le manuel de bord jusqu’au bout. Le commandant de bord avait heureusement une grande expertise du vol à voile lui permettant de gérer la descente. A l’heure actuelle, une enquête a posteriori a cherché à savoir si le pilote avait pris la bonne décision. On peut imaginer de reproduire par simulation ce cas qui n’est pas si rare mais la véritable question est le temps de décision dont disposait le pilote. Il n’aurait pas eu le temps d’introduire l’ensemble des données pour décrire de manière précise la situation et même un logiciel sophistiqué ne lui aurait pas demander s’il avait une expérience avérée sur un planeur. L’algorithme lui aurait conseillé d’essayer de gagner une piste d’aéroport. 4. L’assistance intelligente est en couple avec l’humai n. Pour se diffuser, elle doit développer une capacité d’autoapprentissage. La première étape est celle de l’aide qu’apporte Internet pour répondre à une question, trouver une solution à un problème. Un problème simple à poser comme trouver, évaluer et acheter le bon produit. Apporter une réponse est encore une fois, une des branches de progrès du web qui permet dans une vision collaborative (Wilkipédia par exemple) d’apporter des connaissances à défaut de réponse précise. Cependant les moteurs de recherche se perfectionnent sans cesse. Aujourd’hui, trouver un livre de cuisine en Vietnamien publié du temps de l’Indochine est possible grâce à la digitalisation des archives des bibliothèques (et en particulier de la BnF, Bibliothèque nationale de France). La numérisation des données et des textes libres de droit participe à la révolution numérique. Elle répond aussi bien aux besoins du citoyen lambda, de l’étudiant, du salarié dans son entreprise. L’inclusion numérique inclut l’inclusion dans un univers informationnelle qui s’accroît en quantité, en rapidité et en diversité. La deuxième étape est d’intégrer cette nouvelle connaissance dans un système déjà élaboré, prêt à digérer la nouvelle donnée. En ce sens, le système éducatif doit être couplé à la richesse d’informations et de connaissances qu’apporte le web. Il faut éviter le découplage entre la rapidité d’évolution du web et le savoir- apprendre, dispensé dans des programmes scolaires. 5. L’assistante intelligente modifie le système de perception de la responsabilité . Il faut faire la part des choses : l’apprentissage repose sur la mémorisation et la répétition de la pratique. La pratique lorsqu’elle fait appel à nos ressources intellectuelles fait l’hypothèse d’une potentielle aide à la décision externalisée performante. Cette décision aidée ne peut-elle pas engendrer une excessive confiance dans l’IA et conduire à une perception plus laxiste de la responsabilité ? Pourquoi apprendre ? L’aide du web dans le travail scolaire est matière à débat. Quel est sa place ? Faut-il cultiver la mémorisation et en faire un critère de réussite ? Prenons l’exemple de la table de multiplication. On a conscience qu’il faut apprendre la table de multiplication plutôt que de faire appel à chaque fois à sa calculette, au logiciel Excel ou son équivalent pour calculer 5 fois 4. Mais à quel moment faut-il arrêter de se gaver la mémoire au détriment de la compréhension. Mais ne plus mémoriser ne peut-il pas entrainer une baisse du niveau scolaire ou bien est-ce simplement le critère d’évaluation qu’il faut reconsidérer ? Michèle est un interne en médecine dans un hôpital public. Elle devra réagir avec un protocole appris pour faire son diagnostic et prendre sa décision thérapeutique. Elle n’entrera pas la liste des symptômes relevés dans un algorithme qui lui sortira une liste de diagnostics classée par fréquence avec une liste d’examens complémentaires à pratiquer. Elle est là pour apprendre. L’assistance intelligente peut lui être utile face à un cas complexe. Demain, Elle devra peut-être obligatoirement consulter l’avis du progiciel médical spécialisé. Dans quelle mesure, faire confiance à l’assistance intelligente pour prendre sa décision ? N’aura-t-on pas tendance à minimiser sa responsabilité ? Une décision difficile pourra-t-elle être prise sans avoir à être confirmé par un chef de clinique qui exerce à un niveau supérieur de responsabilité ? Un personnel peut grâce à l’assistance intelligente augmenter sa compétence et ainsi modifier qualitativement et quantitativement la performance globale d’un secteur professionnel avec un statut nécessitant moins d’années de qualification. De nombreuses discussions ont lieu sur l’évolution du métier de cheminot. Comparer la technicité et la pénibilité d’un conducteur de machine à vapeur à soupapes de 1922 à celle d’un conducteur de TGV Ouigo de 2022 peut être un exercice d’école pour éclairer le concept des « conditions de travail » et son évolution. Le mot « cheminot » est, entre temps, devenu une marque de fabrique qui évolue avec son historique et sa propriété collective syndicale. L’IA ne s’en soucie pas ; elle va continuer à transformer profondément le métier. L’assistance intelligente est encore peu développée au niveau des particuliers. Elle reste un portail avec un guide qui vous conduit à l’aide de questions /réponses. Elle ne se substitue pas à son utilisateur mais elle le fera dans un futur proche. L’utilisateur va se réapproprier les processus automatiques. Sa complexité conduit à une pratique de mise à jour quasi permanente ou pour le moins très fréquente. La mise à jour du logiciel sur la Tesla en temps réel est de même nature que la réparation de la panne du télescope spatial Hubble depuis la terre. Elle fait basculer le produit dans le service. Demain le fer à repasser intelligent sera conçu pour être connecté au service après-vente du fabricant. Il fera bénéficier le client des mises à jour (ou bien fera payer ce service par un abonnement annuel). Un capteur du tissu à repasser, relié à la base de données, programmera automatiquement le fer intelligent. La distinction entre produit et service devient obsolète et pousse à une re-conceptualisation du système mondial de production et commercialisation. La division du travail distinguera entre l’ingénierie à haute valeur ajoutée et celle à moins haute valeur ajoutée. Le clivage ne sera plus entre celui de la production massive à bas coût de main d’œuvre et celle reposant sur de la haute technologie mais sur la valeur du service apporté, élevé ou faible. Les perspectives d’une évolution du numérique sont nombreuses : Le franchissement des goulets d’étranglement que sont la miniaturisation, le dégagement d’énergie, la quantité de données pouvant être traitées dans un temps très court se concrétisera dans la prochaine décennie. Au-delà des dimensions visibles, la révolution numérique a ébranlé les fondations de notre comportement sociétale comme nous allons le décrire dans la deuxième partie. Références : [i] https://www.awitec.fr/blog/reseaux-sociaux-en-france-en-usages-chiffres-cles-et-tendances/ consulté le 01/05/2022. [ii] https://www.strategies.fr/actualites/culture-tech/LQ847704C/5-nouveaux-reseaux-sociaux-suivre.html ; Social media -5 nouveaux réseaux sociaux à suivre12/09/2022 - par Cécilia Di Quinzio . [iii] Helene Petry, « Sociabilité numérique et mobilité des adolescents : des favelas de Rio aux banlieues parisiennes », Carnets de géographes [En ligne], 3 | 2011, mis en ligne le 01 décembre 2011, consulté le 03 mai 2022. URL : http://journals.openedition.org/cdg/2250 ;DOI : https://doi.org/10.4000/cdg.2250 . [iv] Source : Enquête Conditions de vie et aspirations, Crédoc, 2020/Enquête sur les pratiques culturelles, deps, Ministère de la Culture, 2018 https://www.cairn.info/revue-culture-etudes-2020-6-page-1.htm consulté le 03/05/2022. [v] https://www.jeunesetmedias.ch/fileadmin/user_upload/6_Fachwissen/Social_Media_Bericht_FR.pdf Rapport du Conseil fédéral en réponse aupostulat Amherd 11.3912 du 29 septembre 2011. [vi] https://www.vice.com/fr/article/akw7dg/hommage-a-nos-reseaux-sociaux-favoris-davant-facebook [vii] https://www.lsa-conso.fr/78-des-entreprises-collectent-des-donnees-pour-personnaliser-l-experience-client,326876 consulté le 01/05/2022. [viii] Herbert A. Simon, Models of man : social and rational : mathematical essays on rational human behavior in a social setting, New-York, Wiley , 1957. [ix] https://www.journaldunet.com/solutions/dsi/1493877-la-naissance-d-une-science-les-origines-de-l-intelligence-artificielle-1-2/ . [x] https://www.lemonde.fr/sciences/article/2022/12/21/au-dela-de-l-intelligence-artificielle-le-chatbot-chatgpt-doit-ses-talents-d-orateur-a-l-humain_6155242_1650684.html par David Larousserie .
par Kristo de Foulonval 15 août 2022
Avant – propos. Cette présentation résulte d’une réflexion sur l’évolution de la société contemporaine. Pour ce faire, nous avons exploré de nombreuses tendances contemporaines, définies comme une évolution persistante qui impacte le modèle de société sur un ou plusieurs plans. La logistique, et plus particulièrement la logistique intelligente, celle qui utilise les algorithmes et les réseaux numériques, ressort de manière significative parmi les tendances qui apportent un changement important de notre modèle sociétal pour les prochaines années. Introduction. La logistique de ces dernières années est une nouvelle voie d’enrichissement économique. Elle met en compétition une route physique, véritable outil géopolitique de conquête économique, et une route numérique avec les mêmes objectifs mondialistes. La route numérique est un nouveau mode de commercialisation de biens et services par des « caravanes numériques modernes ». Ce sont des plateformes de commerce en ligne qui parcourent le net pour proposer leurs services. C’est le maillon de la chaine de valeurs de la logistique qui crée aujourd’hui un important avantage concurrentiel et redistribue la croissance économique. La route numérique est sans frontières et elle tend à absorber à son profit la route physique. Quelles sont les conditions qui ont favorisé l’émergence de cette nouvelle logistique ? 1. La fin des illusions de la politique libre échangiste et l’échec de l’OMC (Organisation Mondiale du Commerce) marque ce début de ce siècle. C’est le traité entre la France et l’Angleterre en 1786, soutenu par les physiocrates, qui signe véritablement l’esprit libre échangiste comme un progrès économique. Aboli en 1793 puis repris en 1860 jusqu’en 1881, il illustre l’alternance des rapports commerciaux avec la Grande Bretagne. Le Brexit ne sera qu’un épisode de plus dans cette bataille commerciale multiséculaire. La doctrine d’une régulation de l’échange économiquement profitable a ouvert la voie au libre échange comme doctrine suprématiste. Mais bien vite, de nombreux économistes ont soulevé des objections avec une vision plus nuancée. Ils apporteront chacun leur pierre à l’édifice en débattant sur le bien-fondé du protectionnisme versus le libéralisme. Les échecs successifs du cycle de Doha (lancé en novembre 2001) relativisent nettement cette vision optimiste d’un monde libre échangiste. Cet échec ne condamne pas définitivement la finalité de la politique de libre échange mais la manière dont elle est posée. Le libre échange n’est pas équitable lorsqu’il élargit le différentiel qu’apporte le progrès technique à une puissance dominante (pays du Nord) pour se procurer des produits agricoles à faible valeur ajoutée (pays du Sud). L’avantage redistributif est plus important pour les produits industriels et les services que pour les produits de l’agriculture et de la transformation agro alimentaire. La maîtrise du libre échange, et sa difficulté, sera de s’accorder sur la maîtrise de la dynamique des termes de l’échange. Devant la difficulté de trouver un terrain d’entente mais avec la pression de la mondialisation, les puissances économiques sont entrées dans un processus d’adaptation empirique. A la fin du 20ème siècle, la production manufacturée par des usines éloignées des pays de consommation, de commercialisation ou d’assemblage est devenue la norme d’une bonne gestion de la chaine de valeurs. Ces vingt cinq dernières années, la doctrine de la délocalisation des usines à bas coût de main d’œuvre a été scellée sur la base d’un intérêt commun et le jeu innocent de la barbichette. La parade des industriels a été de créer une forme de zone « démilitarisée » en dehors de la bataille commerciale des puissances. Les gouvernements des pays en développement ont vu d’un bon œil cet arrangement qui échappe aux politiques de libre échange. Les ZES (zones économiques spéciales) ou les ZF (zones franches) ont un statut spécial hors douanes, limité à la zone géographiquement définie. Cela peut devenir un porte d’entrée dissimulée, car contrôler le trafic d’import-export qui s’y déroule et l’application réelle des taxes douanières (1) est un travail de Titans. Le nombre exact de ces zones n’est pas connu. Elles pourraient se situer (en compilant la littérature) entre 2000 et 3000. Dans le même temps, chacun reste conscient que le libre échange se discute et oscille entre un argument purement économique de l’intérêt collectif à long terme et un rapport de force commercial d’une transition promise vers un développement équitable. Vaste programme…. 2. La guerre commerciale classique est de nature souverainiste, interventionniste et protectionniste. Elle est plus dans un rapport de force que dans un jeu gagnant-gagnant. La doctrine du libre échange recule face à un protectionnisme politique justifié par un argument imparable aux yeux de celui qui l’utilise : Le partenaire est accusé de ne pas jouer le jeu en instaurant des barrières douanières tarifaires ou techniques, en ayant des prix bas par une sous évaluation de sa monnaie, ou par des conditions de travail qui ne sont pas acceptables. Cela s’appelle le « dumping ». Il peut être réel ou seulement un prétexte. La position des États-Unis par rapport aux traités et au mode de fonctionnement de l’OMC démontre qu’elle considère d’abord comme légitime la défense de ses intérêts. Elle n’est pas la seule, mais elle a une capacité à user de sa puissance, plus que les autres. Par exemple, la clause d’extraterritorialité peut facilement être vécue comme un abus de pouvoir dans la liberté de commerce international ; plusieurs banques ont du versé une amende au Trésor américain pour non-respect d’une décision américaine d’embargo ou pour corruption sur un marché hors États-Unis. Elle est une arme sans laquelle les sanctions économiques ne fonctionneraient pas. Qu’elle puisse, par ailleurs, échapper à l’impôt en ayant son propre paradis fiscal sur ses terres (comme l’a toujours eu la Grande Bretagne ou l’Europe) ne peut que faire grincer les dents de celui qui promeut l’égalité de traitement. La guerre commerciale semble plus aujourd’hui montrer une forme d’impuissance qui mène à une posture plus qu’à une efficacité. La gouvernance américaine des républicains (très peu multilatéraliste) comme celle des démocrates (un peu plus multilatéraliste) a bien conscience d’une baisse de son pouvoir d’influence économique. Elle peine à trouver une voie de renouvellement. La fin d’un doute ! Nécessité fait loi. Le repli stratégique et l’indépendance semblent soudainement réapparaître comme un nouvel objectif : Indépendance énergétique, indépendance alimentaire, indépendance sanitaire, indépendance militaire, …. Le concept des blocs semblait s’éloigner dans une mondialisation heureuse. Il revient en force et resurgit entre nations ayant un statut de puissance mondiale. La Russie, qui est au 12ème rang des pays les plus riches en PIB décide de renouer avec un impérialisme qui fait figure de fantôme des 19ème et 20ème siècle. Cela a été une mauvaise surprise pour les Européens. La gouvernance Allemande, confiante envers les dirigeants russes, n’a pas voulu (de bonne foi) reconnaître le risque qu’elle a pris en laissant son approvisionnement énergétique et son transport aux mains d’une seule puissance. L’indépendance redevient le fer de lance de l’autarcie. Citons par exemple, le projet européen concurrentiel au GPS (Global Positioning System) américain. Le projet Galileo, a été lancé en 1999. Il devrait être achevé en 2024. Les politiciens en ont l’idée dans les années 70’. Il aura fallu cinquante ans pour s’affranchir d’une dépendance technologique et commerciale et pour que cet élément important en logistique, essentiel à l’indépendance européenne, devienne réalité. Dans le même temps, la Chine est en mutation profonde. Elle aspire à être la première puissance mondiale avec une projection de puissance indépendante et dominante technologiquement. Alors dans ce contexte incertain, mouvementé et évolutif, quel sera le filon gagnant pour l’avenir dans un univers de commerce qui reste mondialisé à défaut d’être globalisé. 3. C’est vrai, l’évolution du commerce mondial interroge …. Il interroge quantitativement : L’évolution du commerce mondial n’est pas au beau fixe depuis 2008 (2) et après un redressement difficile, les perspectives pour 2022 ne sont pas meilleures (3). La pandémie COVD-19, la guerre en Ukraine avec les conséquences inflationnistes que l’on connaît, forment un brouillard qui nous empêche de bien distinguer la route qui est devant. Il interroge qualitativement : la spécialisation croissante d’un pays dans les produits à faible technologie et consommatrice de main d’œuvre à bas coût (Chine par exemple) par rapport aux pays à haute technologie (Corée du Sud par exemple) n’est pas la tendance des vingt cinq prochaines années. Cela signifie une pause dans le développement des biens d’équipement et de consommation. Pour la France (4), l’Insee situe la rupture à 2004. À l’exception du smartphone, les équipements de communication commencent à marquer le pas et la croissance des achats d’ordinateurs plafonne en 2019 (5) régresse 2020 et repart en 2021. L’embellie de fin 2020-2021 (6) est due essentiellement à la pandémie. Elle a provoqué un rééquipement de l’entreprise en ordinateurs de bureau pour faciliter le télétravail et la redynamisation du marché de l’ordinateur portable. Par contre, le développement des services est en progression. Le rapport spécifique de l’OMC en 2019 (7) a bien noté comment l’évolution rapide des services dans le commerce mondial avait été sous-estimée. Selon les données de la Banque Mondiale, il pèse près de 75 % du PIB des pays développés et 50 % de celui des pays en développement. Il est porté par les nouvelles technologies de travail et de communication. Il va suivre le même chemin que la révolution numérique en s’affaiblissant lorsqu’il atteindra les branches les plus fines de l’arbre de progrès. Dans ce domaine, l’équipement de base informatique atteignant un niveau satisfaisant, ce sont les services numériques qui vont se développer au cours des vingt cinq prochaines années. La mesure du développement des services au niveau international reste complexe à qualifier. Si l’on inclut la présence des commerciaux dans un autre pays comme le fait l’OMC dans son rapport de 2019, il a franchi la barre des 50% de la totalité des échanges de biens et services. Il progresse plus vite que l’échange de marchandises. Rappelons qu’en 1994, L’AGCS (Accord général sur le commerce des services ou GATS) a franchi une étape importante en faisant la distinction entre marchandises et services (services financiers et assurances, services à la construction, télécommunications, …). Nota : De nombreuses sources (CNUCED/UNCTAD, OMC/WTO, BM Banque Mondiale/World Bank, Statista-Allemagne, eMarketer-USA, …) donnent des chiffres qui relaient d’autres sources. Ils doivent être pris avec prudence. Le chiffre d'affaires mondial de l'e-commerce B2C (entreprise à consommateur) est en hausse de 16,3% par rapport à 2020, selon eMarketer. La vente en ligne pèse désormais en 2021 entre 14% et 19% du total des ventes de détail dans le monde, contre 13% à 18 % en 2020 et 11% à 14% en 2019 d’après diverses sources. Selon la CUNCED, les ventes mondiales de commerce électronique (e-commerce cumulé B2B entreprise à entreprise et B2C entreprise à consommateur) (8) étaient en 2019, en hausse de 4 % par rapport à 2018. Elles auraient en 2021 bondi à un niveau record avec la pandémie. Les chiffres sont à confirmer. Le commerce électronique (B2B) et (B2C), équivaudrait à plus de 30 % du produit intérieur brut (PIB) mondial en 2021. Une première réalité apparaît. La croissance économique mondiale sera tirée par celle des services. Le e-commerce reçoît la palme du meilleur coureur de fond. Cette tendance est une expression statistique qui donne l’impression d’un clivage entre la commercialisation des biens et celle des services. En fait, elle masque une évolution plus complexe. La croissance des services est aussi celle d’une valeur ajoutée associée à la production et à a la commercialisation de biens. Cette évolution permet de comprendre qu’un autre signal émerge. La bataille à venir se jouera moins sur un concept d’horizontalité économique avec des rachats d’entreprises dans un même secteur d’activité mais plus sur un concept de gestion verticale de l’ensemble de la chaine de valeurs. Et, dans cette recherche du chemin malin, c’est la logistique qui triomphe. Il s’agit d’abord de rechercher une coordination par un apport de valeurs ajoutées, d’intégrer les maillons plutôt que d’ajouter des maillons aux maillons. 4. la logistique, le maillon de la chaine de valeurs qui vaut de l’or. C’est donc bien sur un nouveau terrain que s’engage la bataille du commerce. Aujourd’hui, le conteneur de 20 ou 40 pieds est la barique surdimensionnée de transport moderne indispensable pour l’usine manufacturière. De même, le robot placier-extracteur dans l’entrepôt est la cheville ouvrière du flux commercial. Ajoutons la cohorte de chauffeurs-livreurs qui remplace la cohorte de vendeurs en magasin déjà remplacés par des caisses automatiques. Le catalogue en ligne est maintenant la vitrine de nos magasins. La foire exposition devient le show room et l’agora, le lieu de la parlotte communautaire industrielle. On se montre, on fait des annonces de contrat… et la fête. La logistique. Elle est statique avec un réseau physique d’entrepôts et dynamique avec une gestion de flux par le transport pouvant couvrir l’approvisionnement. Elle est surtout une optimisation par le choix du parcours depuis la source de production jusqu’au client final destinataire. Plusieurs partenaires différents couvrent la totalité de ce parcours. En général, le parcours logistique se crée à la manière du jeu de Monopoly avec un péage si on s’arrête sur la case. Et les cases sont nombreuses. Elles n’appartiennent pas au même propriétaire. Tout projet logistique demande un savoir faire relationnel basé sur la confiance mais aussi un investissement financier important et risqué. Si l’on joue l’intégration verticale classique, il faut acquérir des « places fortes » de transit et de débarquement, des « routes protégées » qui y conduisent : routes sur terre, sur mer et dans les airs. Il faut posséder un savoir faire gestionnaire pour optimiser les flux et les volumes des contenants, garantir la sécurité des approvisionnements et des paiements. L’intégration verticale demande assurément un important effort de capitalisation. Si l’on joue la coordination, cet éclatement fonctionnel devient une opportunité qui s’ouvre à la technologie numérique et à l’intelligence artificielle. Le chapeau gestionnaire numérique est le bâton du chef d’orchestre, le sceptre du pouvoir qui arrange et réarrange ses composants au rythme des algorithmes. Moins risqué, il est tout aussi puissant. Quelle route choisir ? Un premier choix se veut néo-classique : associer un objectif géopolitique à une route physique. La nouvelle route de la soie initiée par la Chine en 2013 a été pour l’économiste attentif à l’évolution mondiale, une révélation de la réalité de la bataille commerciale qui se joue. Mais il ne faut pas confondre l’ancienne route des caravanes qui transportaient de la marchandise et la CRI (Ceinture, Route, Initiative) ou BRI (Belt Road Initiative). Cette dernière est pour la Chine un cordon ombilical relié à un cheval de Troie. Elle va permettre de faire transiter à double sens des marchandises et des matières premières. Elle va surtout acter la géopolitique chinoise qui voudrait faire de la coopération financière et économique l’instrument mondial de son déploiement (9). La nouvelle route de la soie est dans la logique d’une stratégie militaire telle qu’elle a été développée par Sun Tzu dans son ouvrage sur l’art militaire. Face à un affrontement direct trop coûteux, il reste plusieurs options telles que l’attaque sur le flanc le plus faible, l’encerclement, la guérilla. L’option logistique paraît évidente car elle est négligée dans la chaine de valeurs des relations économiques et commerciales et des traités équitables. Dans la chaine de valeurs, la logistique n’a pas été l’élément le plus défendu comme une clé stratégique par les gouvernements. Elle est le résultat d’une politique publique secondaire ou d’une politique privée avec un organisation plutôt égocentrée (10). Pour la Chine, la BRI permet d’avancer en minimisant l’ampleur de son empreinte. C’est une route physique qui fait rouler son cheval de Troie au-delà des plaines du Kazakhstan. Elle est pourvoyeuse de moyens financiers, de services (par exemple, les services à la construction, le premier poste dans l’exportation de services de la Chine) et de main d’œuvre. Elle gère en lieu et place et participe au développement économique. Cette assise devient géopolitique lorsque les élus du pays se rangent du côté de leur puissance bienfaitrice et y trouvent des avantages. C’est un ouvre-boîte économique et politique. La logistique apparaît neutre, elle ne menace pas le progrès technique, un dogme dans la théorie de la croissance économique. Elle se fait soumise à l’existence d’une offre et d’une demande. Elle reflète simplement l’activité économique. La géopolitique va altérer ce schéma trompeur et replacer la logistique comme un lieu de pouvoir. Occuper les points stratégiques physiques de la chaine de valeurs devient un enjeu fondamental dans la bataille commerciale d’aujourd’hui. Ce retour au temps des comptoirs commerciaux ne se réalise pas par la canonnade mais par la planche à billets. Il faut pour le moins une banque centrale solide. Plus préoccupés par la mise en œuvre d’une politique défendant l’unilatéralisme basée sur des sanctions économiques et des taxations punitives, ou basculant vers les subventions de leur industrie, les États-Unis n’ont pas réagi outre mesure à l’annonce de cette stratégie en 2013. En 2022 (11), Il n’y aucun pavillon américain dans la liste des 10 plus grands armateurs mondiaux de marchandises. Dans cette liste, l’Europe cumule un volume de 13,7 millions d’EPV (Equivalent Vingt Pieds - ou TEU- Twenty-foot Equivalent Unit) loin devant la Chine pour 2,9 millions d’EPV. Rappelons que les importations de biens et services sont assez modestes dans le PIB américain 13,28% selon la Banque Mondiale (12), dont l’importation seule de marchandises de l’ordre de 6,8% en 2020 (13) selon l’OMC. Mais un réseau physique ne peut suffire. Ce que personne n’avait envisagé, il y a vingt cinq ans, c’était de réguler l’échange entre l’offre et la demande, de gérer tous les maillons de la chaine de valeurs sans en être propriétaire. Un deuxième choix s’est ouvert : Apporter de la valeur ajoutée avec une route numérique. Au cours de ces vingt cinq dernières années, on note une mutation des attentes des consommateurs vers des produits plus individualisés et plus personnalisés. La production de masse de produits standardisés a du se réorganiser pour répondre à cette variabilité ; le plus souvent par un processus de flux tendus. Cela a poussé les producteurs à reconsidérer en amont leur modèle de production et d’approvisionnement. Le modèle logistique global en aval s’est également réorganisé avec une plus grande individualisation de la livraison de produits. Cela n’est possible que par le progrès des nouvelles technologies numériques de communication et des applications logicielles performantes. Le changement de paradigme a été discret car la tâche a été complexe et le modèle d’affaires (Business model) en décalage par rapport à l’objectif premier. Dans les années 90’, le développement des places de marché collaboratif (marketplace) ne trouvaient pas de modèle économique fiable. Centré sur la réduction des coûts, les plateformes de vente en ligne n’obtenaient pas la confiance nécessaire de leurs partenaires pour présenter une offre étendue et créer un effet attractif. L’entreprise américaine Amazon a compris comment résoudre le problème. Elle est devenue une géante du secteur logistique en 25 ans. Elle a été introduite en bourse en 1997 avec le commerce de livres mais son emprise logistique étendue date d’une dizaine d’année seulement. En France, le premier entrepôt géant date de 2007. « Depuis votre ordinateur installé près de votre fausse cheminée de Noël en carton fabriquée à Guangdong, vous pouvez commander en ligne ce magnifique habit de Père Noël fabriqué au Vietnam et revendu par la Chine qui en a ajouté les boutons. Si vous êtes en liste prime d’Amazon, il pourra vous être livré le lendemain qui est un dimanche ». Chacun a pu voir, dans les actualités télévisées, le souci de la rapidité chez Amazon. Il repose sur le système de robotisation des enlèvements de commandes dans les rayons. Une plate forme de vente en ligne ne sert à rien si son système de livraison est défaillant en qualité et en temps. C’est également le système local de prévision des stocks à détenir avant commande qui fait la différence. En fait, c’est toute la chaine logistique qui permet la performance. Il ne doit pas y avoir de maillon faible. Paradoxalement, l’entreprise Amazon est associée à la politique chinoise de la route de la soie car l’habit du Père Noël que vous avez commandé va peut être arriver sur un porte conteneur chinois de COSCOS de 20.000 EPV au port du Pirée en Grèce dont le propriétaire est également COSCOS. La marchandise sera reroutée ensuite vers un méga entrepôt d’Amazon ou directement vers un centre plus local avant d’être emballé et livré par un partenaire indépendant autoentrepreneur. Le modèle économique d’affaires d’Amazon repose sur plusieurs piliers dont une combinaison entre la route physique et la route numérique. La logistique est fondamentale dans cette performance concurrentielle mais elle ne peut, à elle seule, constituer la raison du succès de cette société. Amazon a ajouté une dimension marketing de lecture de la demande et de promotion en ligne. Par des accords multiples, le modèle intègre l’ensemble de cette verticalité. La plateforme chinoise Alibaba s’est développée avec le même succès dans la même décennie qu’Amazon. Elle développe un réseau de livraison international nommé Cainiao depuis 2013. La société veut constituer un réseau mondial assumant l’ensemble de la chaine de valeur entre entreprises et vers le client final. Le point clé de la nouvelle chaine de valeurs dans la guerre commerciale sera la maîtrise de la gestion des flux depuis le producteur jusqu’au client final. Le flux peut couvrir aussi bien l’ensemble du monde qu’un seul pays du globe ou le petit village isolé dans lequel vit le citoyen lambda. Lorsque le colis « made in China » arrive avec quelques heures de retard, en bout de chaine, en raison de la pluie diluvienne non prévu par l’algorithme, le postier sur son vélo jaune est loin d’imaginer que le travail d’assistance au parcours du colis a été un exploit quotidien, exploit dont il fait partie, mobilisant en permanence plusieurs dizaines de personnes prenant des décisions à chaque instant en fonction de l’information en provenance des maillons de la chaine. Au fil du temps, le gestionnaire de la plateforme en ligne s’est identifié à Hermès, le maître du commerce. Il peut punir le producteur qui triche sur les délais, le transitaire qui ne sait pas lire les étiquettes, le livreur qui fait la grimace au client et même le client qui retourne trop de colis. Il y a un fort pouvoir d’influence qui évoque celui des GAFAM. La facilité marchande avec le développement des plateformes spécialisées transfrontalières (œuvrant au niveau international) ouvre un nouveau chapitre de l’essaimage du flux économique. L’arbre logistique se développe également sectoriellement. Dans celui de la restauration, la logistique accompagne la vente en ligne des plats préparés par le restaurants. Le modèle s’est récemment transformé avec les cuisines fantômes (Dark Kitchen). Ce concept permet à un restaurant classique d’utiliser sa marque et son image pour vendre en ligne en association avec une plateforme indépendante multitâches. Les plats sont cuisinés par une autre société dans un entrepôt dédié uniquement à cet activité culinaire pour un ou plusieurs clients. La bataille logistique se gagnera par la coordination numérique en gérant la matérialité des flux logistiques. De nombreuses et nouvelles entreprises vont s’accrocher au train de la route numérique. 5. La logistique nouvelle est-elle simplement une nième adaptation de nos moyens de transports ? La première idée est que la logistique n’est autre qu’une nouvelle forme de distribution des biens et services. Avec une intégration en amont et en aval. Du, déjà vu, dirons certains. « Pourrait-on imaginer le grand marché alimentaire de Fatih, aussi nommé Çarşamba, à İstanbul soit transformé en plateforme virtuelle 3D de commerce en ligne par Yemeksepeti, actuellement une société turque de livraison de nourriture ? Et capable de proposer dans les 24 heures de vous faire parvenir une grappe de dattes fraiches commercialisée sur le catalogue tunisien de Jumia Food, puis livré dans votre résidence secondaire de Dalat au Vietnam par Lazada son partenaire vietnamien ; et en plus, il vous récompense avec un bon d’achat sur votre compte de client fidèle. » Ce n’est pas encore la réalité mais…. Mais en 2022, habitant en France à Paris, vous pouvez réserver une chambre d’hôtel à Madrid et un vol économique à une compagnie anglaise en faisant un paiement par un compte en ligne en Allemagne par une plate forme internationale de réservation fiscalement située en Irlande. Mais voir seulement un nouveau modèle de distribution, cela n’est pas satisfaisant. On peut alors faire quelques suggestions pour qualifier cette nouvelle logistique. Il se produit un effet de coordination de proximité, une gestion de l’organisation qui fait de la chaine logistique une entité propre. Cela évoque un holisme économique qui ferait que cette entité participe plus à la valeur ajoutée économique que la somme engendrée par celle de ses composants mis bout à bout. La valeur ajoutée produite vient de la coordination régulatrice de l’espace marchand de biens ou de services, d’une intégration par agrégation qui laisse cependant à chaque maillon un degré de liberté d’organisation. Cette coordination capte la demande et l’offre. Les besoins des consommateurs sont modelés par l’expérience et les avis qui circulent. La production s’ajuste sous la sélection du modèle de gestion et de marketing. La logistique est le maillon qui apportera un avantage concurrentielle par la qualité de la numérisation et de ses algorithmes. L’avantage concurrentiel que procurera un algorithme intelligent tout au long de la chaine de valeur l’emportera sur celui de chaque maillon de la chaine et haussera le niveau global de valeur ajoutée (effet holistique). C’est la structure de coordination qui établit l’équilibre entre l’offre et la demande. Le prix est en permanence la solution de l’équation entre le coût-délai du fournisseur et le besoin-désir du client final. Plus le catalogue est large et plus il se régule vite (effet de régulation par élasticité croisée). La croissance économique est subsidiairement supportée par une distribution de la valeur ajoutée, un essaimage plus rapide et transfrontalier et donc un accroissement du commerce mondial en volume. En valeur, il peut procurer des rendements d’échelle par une meilleure maîtrise logistique (effet industriel). La deuxième idée est que le modèle logistique amène une plus value de croissance économique quand s’il s’inscrit dans un contrôle économique par le détenteur du modèle logistique. D’une certaine manière, il développe un effet de réseau en faisant profiter par son algorithme de gestion ses partenaires (à la manière d’un franchisé). Dans la mise en œuvre de la route numérique, l’offre et la demande sont qualitativement transformées par ce type de logistique intelligente. La plateforme n’est pas neutre, elle joue un rôle de régulateur orientant la production face à la demande. Elle permet donc une réduction des coûts de production par une meilleure prévision. Par ailleurs, comme c’est le cas dans la grande distribution, elle joue un rôle de modérateur du coût des achats par une mise en compétition, de facto, des fournisseurs dont les prix s’affichent en ligne. Comme dans la grande distribution, le préachat joue un rôle d’amortisseur de flux au bénéfice du producteur et du revendeur. Le contrôle économique peut également amener à un déséquilibre du rapport producteur-distributeur et à la perception d’excès de position dominante comme cela a été le cas avec la grande distribution. Ce phénomène n’est pas nouveau. Dans l’hôtellerie, les premières plateformes sont apparues en 1996, Booking.com et 1997, Agoda (PlanetHoliday.com à l’origine). A l’époque, l’hôtel signe un contrat pour figurer dans l’offre en ligne de la plateforme. Le modèle est partiellement basé sur un paiement de l’accès au marché en ligne suivant une commission variable décidée par le client. Plus celle-ci est importante, plus elle ouvre l’accès au marché, par un système de positionnement en tête de liste sur la première page du site de vente. Dans la mise en œuvre de la route physique, la doctrine géopolitique cherche également un contrôle économique. Elle vise à orienter localement une demande et une offre. Elle est gagnante si elle crée un effet de réseau avec des échanges multilatéraux. Si elle ne le fait pas, elle restera limitée à un commerce classique sous influence géopolitique. Le succès de l’ambition chinoise reste très incertain. Après presque 10 années de mise en œuvre, le résultat n’est pas probant (peut-être faute de statistiques) et les années 2020-2022 en Chine (plusieurs crises s’annoncent : agricole, immobilière, …) vont freiner la politique d’investissement. La mise en place d’un effet de réseau multilatéral mondialiste ne semble pas être l’objectif prioritaire de la gouvernance chinoise. En conclusion, une mise en perspective laisse entrevoir un rôle accru de la logistique dans la société de demain. En se généralisant, la sphère logistique devient un des régulateurs de l’activité économique. La logistique physique statique et dynamique sous gestion numérique intelligente deviendra un secteur économique à part entière. Avec l’externalisation de la logistique par les entreprises du secteur productif, Ce dernier se structurera de plus en plus autour d’entreprises de services offrant des solutions logistiques (15). Le trafic commercial maritime va demeurer la route physique principale et relancer la construction d’infrastructures portuaires en eau profonde. Aujourd’hui le pôle européen domine la logistique air-mer avec des transitaires allemands comme K+N (16) et DHL (groupe Deutsche Post). Les prochaines années verront le développement du fret aérien, actuellement un point fort logistique américain (17)(Fedex, société américaine, premier transporteur aérien en 2021 en tonnes kilomètres transportés et UPS United Parcel Service la troisième). Un développement des infrastructures de communication va permettre l’internationalisation croissante des services (banques, assurances, immobilier, santé, services à la personne, éducation, …), services avec une séparation entre l’aspect productif à distance et l’aspect logistique. Cette logistique se joue également dans l’espace. La spatialisation privée de nature commerciale se développe rapidement. Comme du temps des malles postes et de relais pour chevaux, la kirielle de satellites lancée par Starlink, un fournisseur d’accès Internet appartenant à SpaceX X, pour conquérir le marché du bit spatial illustre une logistique qui s’affranchit des frontières et des juridictions nationales. Sociétalement, on peut y voir une évolution de la société de consommation de masse vers une consommation plus sélective dans une offre plus riche de services. Les pays émergents en profiteront pleinement tandis que les pays en développement devront composer pour choisir les meilleurs leviers susceptibles de modifier leur situation. Restons prudent car l’époque troublée actuelle avec la pandémie et la crise énergétique retarde la visibilité d’une telle évolution. Références : 1- http://www.wcoomd.org/fr/media/newsroom/2017/february/wco-participates-in-global-illicit-trade-summit-organized-by-the-economist.aspx , 22 février 2017 dernière consultation, 02/09/2022 2- https://www.vie-publique.fr/parole-dexpert/20335-dix-ans-apres-la-crise-ou-en-est-le-commerce-mondial/ Par Jennifer Matas – Journaliste. Dernière consultation 02/09/2022. 3- https://www.wto.org/french/news_f/news22_f/wtoi_23may22f.htm. OMC Dernière consultation 02/09/2022 . 4- https://www.observationsociete.fr/categories-sociales/equipement-biens-menages/ 14 juin 2021, dernière consultation 02/09/2022. 5- https://www.canalys.com/newsroom/Canalys-global-PC-market-Q2-2021 . Dernière consultation 02/09/2022. 6- https://www.lesnumeriques.com/ordinateur-portable/2021-une-annee-record-pour-les-ventes-d-ordinateurs-n174603.html/ dernière consultation 02/09/2022. 7- https://www.wto.org/french/res_f/booksp_f/00_wtr19_f.pdf dernière consultation 02/09/2022. 8- https://unctad.org/fr/press-material/le-commerce-electronique-mondial-atteint-26-700-milliards-de-dollars-le-covid-19/ . Dernière consultation 02/09/2022. 9- Claude Albagli, 2020, les routes de la soie ne mènent pas où l’on croit…, Paris, édit. L’Harmattan. 10- https://www.journalmarinemarchande.eu/actualite/shipping/les-chargeurs-americains-exigent-une-reforme-de-la-loi-sur-le-transport-maritime : consulté le 30/04/2022. 11- https://alphaliner.axsmarine.com/PublicTop100/ consulté le 22/08/2022. 12_ https://perspective.usherbrooke.ca/bilan/servlet/BMTendanceStatPays/?codeStat=NE.IMP.GNFS.ZS&codePays=USA&codeTheme=7,/ Isabelle Lacroix,, 2022, Perspectives Monde, Université de Sherbrooke, Canada, consulté le 29 /08/2022. 13- https://www.cerl.fr//wp-content/uploads/2021/11/chiffres-cles-par-pays.pdf/ , p.124 OMC non signé, Profils commerciaux, consulté le 29/08/2022 14- https://www.cairn.info/revue-francaise-de-gestion-2008-1-page-1.htm/ Oihab Allal-Chérif , Marc Favier , Le modèle économique des places de marché électroniques : Du transactionnel au collaboratif , Revue française de gestion 2008/1 (n° 181) , pages 161 à 173. Consulté le 29/08/2022 15- Nathan Bounie. « La zone d’activité logistique comme levier de développement économique des territoires. » Economies et finances. Université Paris-Est, 2017. France. NNT 2017PESC1044. p. 59. Consulté le 29/08/2022. 16- https://www.lantenne.com/Kuehne-Nagel-nouveau-leader-mondial-du-transit-air-mer-selon-Armstrong&Associates_a59956.html/ . L’Antenne, 2022. Consulté le 09/02/2022. 17- https://fr.statista.com/statistiques/570690/compagnies-aeriennes-dans-le-monde-total-fret-tonnes-kilometres/ Statista, 2022. Consulté le 09/02/2022.
par Kristo de Foulonval 3 avril 2021
T19 juillet 2020 actu 03/04/2021 L’idée de ce blog est d’être en ligne avec mon vécu et d’essayer de mettre en perspective l’évolution de la société. Quels sont les souvenirs qui m’ont marqué, les questions qui m’ont occupé l’esprit en voyant la transformation contemporaine de la société. Le sujet est vaste entre l’évolution des idées et des engagements, de la philosophie de la vie et des modes de vie, des biens matériels et de leur utilisation quotidienne, de la vie et de la mort, …. Il faut m’ échapper de la tentation d’un projet encyclopédique sinon mon blog ne sera jamais terminé. Je n’ai pas ordonné ce texte car il s’agit d’une suite de billets écrits entre 2015 et 2020. Je vais essayer de les regrouper pour le lecteur tout en conservant la spontanéité de l’écriture des billets. Je souhaite le faire avec mes souvenirs, ceux qu’ils me restent et ceux qui se sont imposés par une acculturation médiatique. Il n’est pas évident de séparer les deux. Ainsi quand je regarde la valise de ma tante qui date de la deuxième guerre mondiale, je ne peux m’empêcher de la resituer dans un contexte d’exode ou de déportation. Cependant ma tante n’a jamais connu l’exode ou la déportation, mais sa valise elle l’a gardé toute sa vie. Et moi, j’ai vu plusieurs films dont l’histoire se situait durant cette période. Je souhaite l’enrichir également par une analyse intellectuelle de l’actualité qui sont des marqueurs de l’évolution contemporaine. Parfois ce sont des signaux faibles comme l’évolution de l’habillement ou l’agencement de l’habitation, parfois ce sont des évènements sociaux révélateurs de cette évolution comme ceux de mai 1968 ou la crise des « gilets jaunes » en 2019. Ce retour historique va-t-il me permettre de me projeter dans le futur ? L’histoire est-elle bien l’histoire ? Retour « historique » ne veut pas dire comme à l’Ecole quand j’avais 10 ans. J’ai souvent été déçu par l’enseignement de l’histoire de France qui se limitait à un texte écrit avec de rares illustrations en noir et blanc - ce n’est plus le cas-. La description du contexte historique était limitée ou inexistante. J’ai vécu mes cours d’histoire comme une successions de faits datés, de conflits sanglants, de régime de gouvernances, de conquêtes et défaites, de guerre de religions. J’ai plus ressenti ce que pouvait être la vie d’un cerf au moyen-âge quand j’ai passé mes vacances en 1950 dans un hameau reculé du Puy de Dôme où le paysan vivait uniquement des produits de sa ferme et où la charrette avec les bœufs était encore le moyen de locomotion pour aller au village. La révocation de l’édit de Nantes (en 1685 par Louis XIV ), le vase de Soisson sous Clovis sont des souvenirs de l’Ecole comme d’autres qui montrent à la fois l’absurdité ( je veux dire par là, son absence de contribution à l’éveil intellectuel de l’enfant et de l’adolescent) de l’enseignement de l’histoire et le souci idéologique de la présentation. Pourquoi ? La révocation de l’édit de Nantes : j’ai retenu que c’était un tournant historique qui marquait la fin du protestantisme en France. C’est probablement vrai,
par Kristo de Foulonval 17 mars 2021
Du premier vivant à Homo Sapien s Actu 29 03 2021 format LDP Mots clés : Homo Sapiens, homme moderne, vivant initial, encapsulation, créationnisme, hasard, écosystème, génétique, phénotype. Théorie écosystémique du vivant. J’avais, à l’origine choisi, ce titre pompeux mais il me faut être plus modeste car la science galope si vite qu’il est inconvenant de se prétendre autre chose que théoricien du jour. Ce sera simplement une tentative de présenter en quelques pages, une série de postulats. Les notes ont été prises à diverses périodes entre 2015 et 2020 Kristo de Foulonval Première partie : le Vivant, un transformiste combattant ou un gentil malin. Pour répondre à cette question, il faut faire un profilage du vivant et chercher ses origines. Quelle est la définition du vivant ? Tout discours mérite une définition pour situer le champ du débat et de la critique. Donner une définition ce n’est pas asséner une vérité mais fixer l’angle d’approche qui permet d’explorer la richesse du paradigme. Le vivant est un système capable de produire un métabolisme durant une période déterminée, et à le reproduire dans un milieu qui lui procure de l’énergie. C’est un système à la fois partiellement autonome et partiellement dépendant, capable d’échanger avec le milieu extérieur mais qui se distingue de lui par son propre système de fonctionnement et de protection. Cela m’amène à proposer les deux premiers principes du vivant : Le premier principe formule que l’échange avec le milieu extérieur de tout métabolisme est une nécessité pour ne pas disparaître. Ce principe pose un postulat quasi métaphysique (ou philosophique, à vous de choisir). C’est celui d’un milieu extérieur du milieu extérieur du milieu extérieur… ou la généralisation d’un monde multi systémique. Tout vivant qui veut survivre doit échanger avec le milieu extérieur mais il doit également se protéger de ce dernier pour ne pas disparaître. Le second principe est celui de l’ encapsulation qui postule que se forme spontanément une barrière spécifique lorsque deux milieux différents, se trouvent en contact. L’homogénéisation qui peut se produire entre deux milieux vient rompre la tendance à passer à un niveau supérieur d’organisation. La séparation, a contrario, donne naissance à des systèmes constitutifs complexes et durables qui s’organisent pour évoluer et s’adapter à leur environnement en toute indépendance (ou presque, car il semble exister un lien au sein d’une même espèce). L’encapsulation est à la fois une protection physique, mais également un moyen de régulation des flux (échange de liquide, de matière, de gaz) et du temps (gestion d’un temps adapté et de son écoulement). Qui est le vivant initial ? C’est une question aussi vieille que celle de l’apparition de l’Homo Sapiens qui pourrait avoir été le premier à se poser la question. Une réponse simple est le dogme créationniste au sens strict. Non, il n‘est pas mort. Il est encore très répandu dans les milieux évangélistes aux USA (46% de créationnistes aux USA en 2012 selon un sondage Gallup). Dans ce cas, la question de l’évolution du vivant ne se pose pas puisque c’est « dieu » qui décide de tout. Cela est rassurant, et devrait alors permettre d’économiser du papier, de l’encre et du temps. Et, si l’on pense que cela n’est pas satisfaisant, alors que faire ? Plusieurs hypothèses sont imaginables. Plus qu’une analyse des différentes hypothèses, c’est un débroussaillage du vocabulaire qu’il faut faire. On entre très vite dans un schéma de pensée qui restera confus s’il n’est pas précisé. La première hypothèse non créationniste serait que le vivant provient de notre planète terre. La génération spontanée a été longtemps l’hypothèse retenue. Lorsque la science a montré que le vivant observable n’était pas créé de la matière inerte, d’autres hypothèses ont mis en avant un contexte particulier, un hasard, qui va amener à la création d’une cellule capable de se reproduire. Mais dans ce cas, le mot spontané prend le sens d’un hasard , une infime probabilité que le phénomène se produise à un moment particulier de l’histoire du cosmos. Ce hasard a fait se rencontrer des composantes électro-physico-chimiques qui répondent ensemble aux critères du vivant que nous avons définis préalablement. Parenthèse : Le hasard. On ne peut pas continuer cet écrit sans prendre position sur le hasard, l’ordre et le désordre et dans ses prémices sur le concept de déterminisme. Je suis pour une double définition : le hasard systémique et le hasard aléatoire. Le hasard systémique : Plus grande est la diversité non organisée d’un système (un désordre riche), plus il engendre des sources de combinaison. C’est donc la combinaison (une structure d’ordre multiple) entre les systèmes et les sous-systèmes des sous-systèmes et plus qui engendrent cette variabilité et conduisent à un résultat imprédictible dans l’état actuel de nos connaissances. Le déterminisme est une conception théorique qui suppose un cadre fini et une chaine de causalité des évènements. Trop d’évènements étouffent la causalité et sa mesure. On va raisonner sur des centaines puis des milliers puis des millions de données et de chaînes causales dans un temps donné. Le déterminisme à l’infini n’est plus déterministe. C’est une forme d’agitation où la course au temps devient plus importante que la relation d’ordre. En dehors de cette évanescence, la précision de la mesure mais également la cohérence de la mesure engendre une suite d’erreurs ne permettant pas d’aboutir à un résultat fiable. Le hasard aléatoire ; Il est le résultat d’un ensemble d’évènements qui sont par nature générés de manière aléatoire sans causalité c’est-à-dire avec une équiprobabilité de survenir par essence. Dès que l’on introduit une équiprobabilité dans la chaîne, on réduit le déterminisme à une probabilité d’occurrence. Dans de domaine de la physique, on peut ralentir l’agitation moléculaire par l’abaissement de température. C’est plus difficile dans le domaine biologique et encore plus dans le domaine social. L’occurrence d’une nouvelle combinaison dans le domaine du vivant est plus le résultat d’une erreur qu’un cycle de succession entre ordre et désordre. Mais alors d’où vient l’erreur ? L’ordre et le désordre (des mots que je n’aime pas car ils sèment la confusion. C’est la faute à Carnot) sont des états systémiques avec des dynamiques évolutives. L’erreur est une perte de lien organisationnel qui ouvre le système à la transformation. Plus il y a désorganisation et plus les échanges entre sous-systèmes seront nombreux. Par exemple, la grippe entraîne une élévation de la température corporelle et déclenche une mise en jeu importante de sous-systèmes régulateurs de l’humain. Fin de la parenthèse . L’hypothèse que le premier vivant unique provient d’une rencontre de brins d’ARN comme antérieur à l’ADN (Carl Richard Woese, 1967, Walter Gilbert, 1986), recueille actuellement la faveur de nombreux biologistes. La seconde hypothèse serait que le vivant initial, une simple poussière contenant un micro-organisme par exemple, provient d’une autre planète de notre galaxie ou de l’espace dans lequel il circule en permanence depuis le big bang ou encore d’une autre galaxie par contamination d’aliens venus sur terre en catimini ou d’astéroïdes géocroiseurs. Cette piste n’est pas la première privilégiée par la science aujourd’hui. Mais souvent Science varie. Un astéroïde venu d’ailleurs n’est pas une piste à écarter mais les indices manquent. Attendons de mettre le pied sur une exoplanète compatible pour en savoir plus. Du végétal à l’animal : l’origine marine du vivant Considérées comme à l’origine de la vie par de nombreuses études, les formes de phyto et zoo plancton sont nombreuses dès l’origine de la vie. Les scientifiques peinent à trouver un axe de classification et à identifier une source commune. Si le lichen semble, en 2020, la source primaire de toute évolution, la chronologie du développement phyto vers zoo semble toutefois complexe à déterminer. Par exemple, la flottabilité instable d’une structure végétale phyto qui se détache pourrait être une piste d’adaptation réactive au milieu. On peut imaginer une transformation phyto vers zoo allant vers plus de contrôle de la flottaison ou de protection avec la création d’excroissance cytoplasmique, de flagelle, de protection en silice ou autre, ou même d’un flotteur. Par ailleurs, si la reproduction par mitose est assez généralisée au niveau phyto, il existe également une reproduction sexuée qui peut amener une évolution. Au niveau du groupement en chaine, l’aspect associatif comme mode de défense ou d’action est également montré à ce stade. On peut imaginer certains assemblages comme des préludes à des différenciations et au passage à un ordre supérieur de complexité. L’apport d’énergie par la nutrition se différencie et engendre une organisation complexe (capture des éléments nutritifs, transformation de matière organique –fonction digestive avec absorption et transformation chimique, rejet des matières non absorbées qui nécessite une approche sensorielle évoluée). Cette évolution fondamentale marque une évolution dans le monde animal. Mais pourquoi la vie est née dans un milieu marin plutôt qu’en eau douce sur terre ou dans l’atmosphère ? Il est probable que la salinité n’explique pas tout. J’irai bien vers une piste gravitationnelle dans un milieu où la flottaison et les courants permettent la constitution d’un réacteur biochimique stable. Je suis pour cela guidé par l’adaptation au milieu, un principe central. Un deuxième aspect à approfondir est le phénomène de métamorphose du stade zooplancton ou larvaire au stade adulte qui semble exister dès l’origine de la vie. Il y a derrière un mécanisme qui ne peut pas être seulement réactif mais qui contient une programmation préalable et une activation potentielle. On passe d’une première organisation systémique à une autre très rapidement. Le temps de transformation est une variable importante car plus il est long, plus le système est vulnérable. Plus le temps est court, plus le système pourra fonctionner à nouveau, éventuellement dans un nouvel environnement. Le milieu marin offre plus de stabilité donc plus de temps à une évolution biologique primaire. Il est facile d’imaginer un processus de croissance chrono-régulée soit linéaire soit semi linéaire (par sauts) avec des différenciations cellulaires qui accompagnent la division. Il est plus compliqué d’imaginer que tout processus de transformation s’inscrit dans un système holistique, où il existe un lien qui subsiste tant dans l’espace que dans le temps. Restons modeste dans notre imagination… Ce que l’on s’accorde à dire, c’est qu’un « vivant postérieur » succède dans le temps (principe d’ irréversibilité du temps ) à un « vivant initial avec une progression multiplicatrice du nombre des espèces vivantes qualitativement et quantitativement. Toutefois, une espèce peut également disparaître (principe de non-réversibilité de la vie ). Et aujourd’hui, nous sommes plutôt dans une situation où les espèces observables disparaissent plus vite qu’elles ne se créent. C’est le présent. Aujourd’hui pour expliquer la création du vivant dans le passé, un des courants scientifiques penche plutôt vers des conditions spécifiques, un écosystème favorable à cette évolution (qui peut également exister à un moment donné ailleurs dans l’univers observable aujourd’hui). Cette hypothèse a du sens… L’évolution du vivant suit l’écoulement du temps. On gardera comme hypothèse première que le temps de l’évolution est un temps irréversible . On écartera, faute d’éléments observables, un espace-temps relatif avec un champ de gravité déformable qui pourrait modifier ce schéma. Parenthèse ; Cependant, rien n’empêche de faire des hypothèses dans ce dernier cas à la fois pour les voyages futurs dans l’espace et pour les phénomènes moléculaires et intra atomiques. Cela relève pour le moment de la science-fiction et de calculs mathématiques. Ceux-ci reposent sur un corpus de règles érigées par les mathématiciens plutôt que sur la base d’observations expérimentales directes. L’outil mathématique auto-produit des hypothèses qui doivent respecter le corpus de règles qu’il a lui-même décrété. Le risque de s’enfermer dans une tautologie est élevé. Cette mise en chiffres rationnalise l’interprétation mais présente de nombreuses incertitudes probatoires quand celle-ci s’éloigne de l’observable. Fin de la parenthèse . Cette approche du temps irréversible a une signification. Il existe une chaîne qui relie le procaryote du fond des âges à l’eucaryote qui existait il y deux milliards d’année, le trilobite d’avant hier à la souris d’hier et la souris d’hier à la souris d’aujourd’hui. On pense que le vivant provient d’un vivant d’avant-hier et ce dernier d’un vivant initial que l’on pourrait qualifier de vivant 0. Cela fait si longtemps qu’il reste si difficile à trouver que l’on désespère. Les derniers progrès technologiques vont permettre d’en savoir plus. Oui, « Jurassic Park » ne sera plus un divertissement fiction. La méthode expérimentale restera l’outil privilégié au 21 ème siècle et la renaissance du Mammouth sera peut-être pour demain. La genèse du vivant m’est toujours apparu intuitivement comme une orientation « soupiste ». Intuitivement, cela signifie que c’est l’ensemble de mon acquis personnel qui m’influence. Ce dernier est bien évidemment génétique mais surtout philosophique depuis le lycée. Une orientation « soupiste » c’est admettre qu’un mélange chimique de composés organiques est à l’origine de la vie. Par la suite, le cheminement du vivant est une petite usine qui fabrique des chaines acides, ARN et ADN, et un métabolisme permettant la réplication ; Il y a une incertitude sur l’élément initial (ARN ou pas). Le mode de passage à un métabolisme complexe avec un système stable fait également encore l’objet d’hypothèses sur le processus (aléatoire ou systémique ou une combinaison). Mais l’étau se resserre. Le cocktail de la naissance du vivant, c’est une combinaison d’organisation et de désorganisation, de chaos et de rencontres. Pour certains, ce sont des chaines d’ADN et d’ARN (des constituants de tout virus) qui se seraient introduits dans des gouttelettes d’eau protégés par une membrane. Cette encapsulation peut être envisagée comme un simple hasard circonstanciel ou bien comme résultant du second principe du vivant. Ainsi, la pulsion du Bernard-l’hermite à chercher son abri, une protection qu’il ne peut fabriquer lui-même pourrait être une pulsion primitive de l’encapsulation inclus dans ses propriétés physico chimiques primitives de l’ARN. Cette combinaison gagnante se serait produite en raison d’une période favorable de l’évolution de la terre. Un environnement favorable à une capacité à la réplication de l’ADN et de l’ARN. La multiplication de ces cellules sans noyau puis avec noyau puis leur combinaison aurait conduit à LUCA (the last universal common ancestor) la première trace de fossile vivant, il y a plusieurs millions d’années. Quoiqu’il en soit, l’étape expérimentale de création artificielle d’une cellule capable de se reproduire n’est pas encore totalement aboutie mais s’en rapproche. La création de la première cellule vivante dotée d’un génome synthétique par le biologiste américain Creg Vanter en 2020 se rapproche de cet objectif. Toutefois, si le génome est synthétique, il est transplanté dans une bactérie existante. On peut imaginer que la prochaine étape sera la création complète d’une cellule vivante de synthèse. L’évolution du vivant est alors décrite comme débutant par une longue production de variabilité capable de produire des dizaines de millions d’individus différents. Cependant cette variabilité est trompeuse. Quand on choisit l’angle de la phylogénétique pour retracer l’évolution du vivant, la variabilité est représentée par un arbre qui débouche sur des groupements d’espèces ayant un ancêtre commun. Le nombre ne fait pas l’objet d’un consensus mais il se calcule en dizaines de milliers seulement. La mutation génétique, est une source majeure de l’évolution. L’évolution du vivant vers la complexité ferme la porte à la désorganisation tout en rendant le système plus réceptif à une évolution brutale. Cela se traduit par la mutation génétique capable d’apporter une nouvelle fonctionnalité. On considère que la réplication des bactéries sur une période courte (une journée) se calcule en milliards et que chaque mutation se probabilise de 1 mutation pour 1 million de réplications par division. C’est l’imperfection du processus qui permet la variabilité . Imperfection n’est pas le mot approprié. Il est préférable de dire que la stabilité parfaite du processus est un moment singulier de faible probabilité. Par ailleurs, bon nombre de mutations n’ont pas d’effet qualitatif important. Il semble que ce soient des ensembles de mutations conjointes qui permettent un saut qualitatif du système. Le passage d’une cellule sans noyau (bactérie) à une cellule avec noyau est une première forme d’ encapsulation en série suivant le principe des poupées russes. Cette étape serait fondamentale pour l’évolution du vivant. Elle suppose un mécanisme complexe de cohabitation symbiotique ou de domestication. Elle se concrétise dans l’idée d’une capacité de socle identitaire et de défense immunitaire . Pour être stable, le processus doit se définir par des caractéristiques particulières uniques et un système de réaction favorable ou défavorable lorsque la cellule est mise en contact avec une autre. Défense et attaque sont les deux visages de cette réaction. Ce processus existe probablement depuis la nuit des temps, c’est-à-dire depuis la première encapsulation. La théorie cellulaire date de 1839 soit depuis moins de 200 ans. En 2015, l’idée d’encapsulation (concept plus large que l’encapsidation qui se limite au génome) m’ait apparu comme fondamentale. Simple amateur, en 2015, Je ne connaissais pas le mot encapsulation et donc j’avais à cette époque inventée mon propre vocabulaire en proposant (mes premières notes) une théorie de l’involution claustratique systémique. Parenthèse : Des découvertes diffusées dans le grand public sont venues confirmer ou contredire mes premières idées. Et je suis loin de connaître les très nombreuses découvertes qui fleurissent dans les revues scientifiques. En poursuivant le jeu de ma pensée, je découvre des nouvelles avancées et je m’interroge sur le bien fondée de ma propre réflexion. Des milliers de cerveaux font ronronner leurs neurones et les technologies nouvelles font avancer les sciences. Cela dit, je suis étonné d’avoir envisagé quelques unes de ces découvertes et fait ce même parcours intellectuellement. Ce n’est peut-être pas un hasard car le processus de fermentation scientifique aboutit à des parcours similaires. La vulgarisation est de plus en plus étendue et rapide. Alors je vais continuer à me faire plaisir et me prendre pour un scientifique. Fin de la parenthèse . Les scientifiques ne sont pas d'accord sur la façon dont les archées, les bactéries et les eucaryotes ont émergé. L’idée c’est qu’il y a un ancêtre commun , d'autres estiment que c'est la fusion des archées et des bactéries qui ont donné les eucaryotes il y a deux milliards d'années. Quoiqu’il en soit le consensus se forme autour d’une évolution progressive sur des millions d’années à partir d’un vivant initial. C’est là une vision positiviste que je partage. Qu’est-ce que l’involution claustratique systémique ou encapsulation ? Quelque soit le mode d’évolution du vivant, il semble y avoir des constantes universelles qui méritent une attention. La première est ce qui est appelé l’encapsulation. Premier postulat : Deux milieux physico chimiques qui ne fusionnent pas ne peuvent co-exister sans qu’il y ait séparation par une (ou plusieurs) enveloppe protectrice permettant une régulation des échanges. Ce principe est universel. Cela est également valable pour de la matière morte mais de manière différente. Pour ce qui est « du vivant », le phénomène est généralisé sur plusieurs niveaux organisationnels. Chaque cellule, chaque ensemble fonctionnel de cellule, chaque organe, chaque sous-ensemble systémique organique, chaque ensemble systémique global ou holistique répond à ce postulat. Parenthèse : Classiquement, un organe es t un groupe de tissus , un ensemble de cellules encapsulées ensemble, collaborant à une mêm e fonction physiologique principa le. C ertains organes assurent simultanément ou alternativement plusieurs fonctions, Les organes participent à ce que l’on considère comme des niveaux supérieurs d’organisation, les systèmes et sous systèmes et les appareils (appareil digestif, locomoteur, respiratoire). La distinction entre système et appareil est confuse. On tente de définir l’appareil comme se rapportant à une activité principale (appareil locomoteur, appareil circulatoire, appareil digestif, …) Le système se définit plus par l’ensemble des organes qu’il mobilise. Ainsi le système nerveux participe à plusieurs appareils, tout comme le système musculaire. En revanche le système digestif et l’appareil digestif ne font qu’un. Fin de la parenthèse. La poule précède l’œuf ou bien l’œuf précède la poule ? Dois-je répondre à cette question ? Parenthèse : Gallus gallus, la poule est l’un des premiers animaux à être domestiqué. Celle-ci a lieu avec l’apparition du Sapiens. On peut supposer que son élevage s’est multiplié lors de la phase de sédentarisation, il y a moins de 10 000 ans. La poule a continué à accompagner l’homme dans sa phase d’urbanisation primitive. Elle fait aujourd’hui l’objet d’un élevage intensif qui dépasse vraisemblablement les 30 milliards de têtes. Fin de la parenthèse . Qui vient en premier l’œuf ou la poule ? Cela peut se limiter à un débat philosophique. Pourquoi a-t-on besoin d’un débat philosophique ? C’est un autre débat fort intéressant qui pose la question de la croyance théologique ou philosophique comme une composante de l’évolution du vivant. Pour notre part, nous nous situons plutôt dans une attitude positiviste. Faut-il pour autant écarter la question ? … Non, la question scientifique demeure. Les réponses scientifiques ne sont pas absentes. L’œuf est une protection (une encapsulation) qui peut prendre diverses formes : œuf à coque dure, œuf mou avec membrane souple, poche visqueuse, ovule, larve, … Fécondé, l’œuf permettra la production d’un nouvel être vivant. La membrane protectrice est générée par les constituants en provenance de la mère mais le déclencheur de l’action est sans doute plus complexe. En ce sens, la poule précède l’œuf mais c’est un peu court. Dont acte… Il faut remonter le temps très loin. Peut-on imaginer que la première forme de vie est une coquille protectrice ? – une simple bulle créée par des phénomènes naturels d’ordre physico chimique. - C’est encore un peu court. Imaginons que l’ancêtre de la poule primitive (brins d’ARN), fort intelligente, ait simplement décidé d’entrer dans la bulle. Elle va s’approprier ensuite ce modèle de protection, puis trouvant l’idée à son goût, Elle va elle-même créer la bulle dans laquelle, elle a trouvé refuge. Cette évolution complexe est-elle plausible ? Ou bien des brins d’ARN dans un milieu aqueux conduisent à une réaction de protection en produisant une enveloppe molle. Ce ne sont bien évidemment que quelques scénarios imaginés parmi de nombreux autres. Le problème de la poule et de l’œuf devient donc celui du processus primitif d’expression. Ce processus conduit à une encapsulation protectrice physico chimique capable de produire et se reproduire. Ce processus finit par appartenir à l’ensemble systémique biologique et s’intègre dans le patrimoine héréditaire bien avant que la poule soit une poule. Le postulat de l’encapsulation aboutit à ce que l’œuf précède la poule, même si c’est un poisson qui sort d’abord de l’œuf avant d’être un grand dinosaure et une petite poule. Deuxième postulat : Quelque soit l’enveloppe protectrice, l’échange avec le milieu nécessite des ponts de vie qui s’ouvrent et se ferment en permanence sur l’environnement extérieur. La nutrition, par exemple, nécessite l’ouverture d’un pont de vie. Les moyens pour atteindre cet objectif sont très nombreux et reposent sur des organes fonctionnels dont la variété dépasse l’imagination. Le pont de vie peut être passif ou mettre en jeu un protocole de liaison entre l’organe et l’environnement. Certains poissons se contentent d’ouvrir la bouche et d’attendre. L’araignée tisse une toile sans laquelle elle ne pourrait se nourrir. La souris à miel se nourrit du nectar des fleurs grâce à sa langue en forme de pinceau. Il existe des milliers de solution pour créer un pont de vie. Le mécanisme qui impulse la solution systémique « fonction vers organe » ou « organe vers fonction » est complexe et encore mal connu. Quelque soit le processus d’organisation, de complexification et d’interactions des organes du vivant, il faut poser la question suivante. Comment le vivant s’adapte à un environnement évolutif ? On peut temporairement éluder la réponse et poser un troisième postulat. Troisième postulat : Il n’existe pas d’Etat stable du complexe systémique mais une adaptation permanente à la dynamique de l’environnement. Il n’y a pas d’écosystème en équilibre durable. Toutefois, il est logique d’admettre qu’il existe des périodes de régulation systémique qui permettent à un système de perdurer sur une longue période. Cela signifie qu’il y a un état instable capable de se réguler dans des limites conservatoires du système. Au-delà, c’est une rupture ou un saut. L’évolution se fait également par sauts en plus d’une évolution continue (à l’intérieur de l’écosystème temporaire). Si cela vous évoque peut-être les structures dissipatives de Prigogine et la théorie des catastrophes de Thom, c’est involontaire mais comme je l’ai dit, mon esprit a pu être influencé. Rappelons que notre but n’est pas de faire une synthèse scientifique des observations accumulées ou un texte de vulgarisation mais de construire une réflexion théorique qui puisse expliquer l’évolution du vivant. C’est un passe temps. Comment peut se faire l’adaptation à l’environnement ? Le piano mécanique : Comme chaque piano, le génome a ses propres partitions. Son répertoire est immense mais limité et prédéterminé. Avec le temps, le vivant apprendra et trouvera dans le génome la bonne combinaison à retenir pour s’adapter au mieux à son environnement. C’est le génome programmé par une main invisible. Mais existe-t-elle vraiment ? Le piano fou : Le génome possède un très grand nombre de partitions dans son répertoire, mais certaines de ses partitions vont s’activer par dérèglement (une probabilité très faible qui réunit les conditions d’un résultat contraire à l’ordre initial). Certaines combinaisons s’adapteront c’est-à-dire que le résultat modifiera le système mais ne le détruira pas. L’environnement change et le désordre va devenir croissant ; La destruction du système est proche ; Le système pourra t-il, par son instabilité naturelle, produire une combinaison vertueuse adaptée à un changement d’environnement. Non, ce système va mourir. Oui, C’est le processus de sélection naturelle par le hasard qui fait naître un autre système. Le piano intelligent : capable de communiquer avec son environnement, il saura comment combiner ses partitions même s’il fait des erreurs et ne réussit pas du premier coup. Il apprend de l’environnement. C’est le processus d’ échange systémique . Ces trois approches peuvent être défendues et elles ne sont pas exclusives les unes des autres. L’adaptation dans des milieux différents peut se faire par un processus d’apprentissage comme cela a été démontré chez les primates. Les dernières avancées scientifiques mettent en avant qu’il existe également un processus de transformation systémique du génome. Cela nous conduit à formuler un quatrième postulat. Quatrième postulat : l’évolution du vivant contient nécessairement un processus fonctionnel d’adaptation systémique dans l’univers de la biosphère observable (ce que l’humain a la capacité à percevoir de manière directe -par les sens- ou indirecte -par les outils-). La mutation génétique systémique est-elle un phénomène parmi d’autres ? Faisons l’hypothèse qu’un processus interne existe pour modifier la combinaison de gènes. Il y a alors un processus d’échange systémique qui n’est pas dû au hasard. Je penche pour cette hypothèse. C’est une hypothèse, car le processus précis d’échange systémique qui modifierait la genèse du génome n’est pas bien connu en 2015. Attendons quelques années, et nous allons le découvrir. Ce que l’on sait aujourd’hui c’est que le processus d’apprentissage d’une cellule existe et qu’elle a une capacité à mémoriser pour un temps ce processus. C’est également que l’échange existe également entre cellules d’un même ensemble global encapsulé comme l’humain, l’animal ou la plante vivante. Actualisation 2020 : En 2015, il s’agissait d’une hypothèse probable ; En 2020, l’importance du changement adaptatif réversible ou non réversible, transmissible de manière héréditaire ou non, ne fait plus débat. La diversité biologique est un long processus dont la route est tracée par la transformation accidentelle du génome et par le processus d’adaptation à l’environnement. Cependant, il semble bien que le temps de la diversité soit en conflit avec le temps de la régulation globale. Dans un écosystème fermé, il y a homogénéisation et équilibre des espèces conduisant à une stabilité de la biodiversité. Faut-il y avoir un parallèle avec le deuxième principe de la thermodynamique ? Je ne crois pas car la domination d’une espèce semble pouvoir également amener à la disparition de l’écosystème lorsque ce dernier devient une bulle fermée. Il n’y a pas homogénéisation mais un désordre évolutif. Le principe est celui de la dynamique, l’exception est celui de la stabilité. Cinquième postulat : l’évolution du vivant se produit par boucle évolutive : une transformation organisation -désorganisation – nouvelle organisation et ainsi de suite. Les échanges entre le vivant, ses sous-parties et son environnement sont de nature diverse. Nombreuses sont celles de nature EPC électro physicochimique. On note également des échanges plus complexes d’ordre biologique comme la multiplication de cellules spécifiques. Par exemple, Il semble aujourd’hui que des neurones du cerveau circulent au sein du corps humain. C’est un flux d’ensembles bio constitués. Les progrès nous font également découvrir de nouveaux organes, des ensembles constitués d’ordre supérieur, (Mésentère, glandes tubariennes) qui ont de riches liaisons avec d’autres organes. Finaliste ou pas finaliste ? Que penser de La relation fonctionnelle du vivant avec son milieu ? Elle passe par une finalité fonctionnelle de l’ensemble global encapsulé ce qui est le cas pour tous les ensembles et sous ensembles. Parenthèse : Le débat d’ordre philosophique entre finalistes et mécanistes perdure depuis l’antiquité jusqu’au 21 ème siècle (in La revue de théologie et de philosophie, 1931). Pour les finalistes, il y a une pensée qui dirige les choses et il est logique que la fonction crée l’organe, qu’il faille un estomac pour digérer ou des yeux pour voir. Pour les mécanistes, les mêmes causes produisent les mêmes effets. Ce déterminisme conduit rechercher les mécanismes qui expliquent le vivant. Ce matérialisme (par rapport à la pensée finaliste) prélude à l’approche scientifique moderne. Il nous semble « intelligent » d’éviter la querelle que l’on peut d’ailleurs contourner en acceptant un « déterminisme relatif » qui accepte l’indétermination et le hasard probabiliste. Il y a un lien entre l’organe et la fonction mais le sens de la liaison peut varier. Ainsi la fonction modifie l’organe et réciproquement. Il est également possible d’introduire un lien holistique plus général. Il est donc légitime d’aborder le sujet par plusieurs approches sans se préoccuper d’une base philosophique. Esquivons le débat finalisme-mécanisme en nous penchant sur l’efficiencité des organes. Ce n’est pas nouveau, car Aristote dans ses discours sur la Métaphysique faisait de la cause efficiente une des quatre causes de toute chose, une force motrice. Fin de la parenthèse. On fera également la supposition d’un facteur H (par référence à l’Holisme) qui relie l’ensemble des systèmes à travers un complexe holistique. Un complexe holistique systémique c’est un ensemble de sous ensembles. Il se caractérise par un état de coordination temporel suffisamment court pour que l’ensemble des sous fonctions produites par les sous ensembles permettent globalement un pilotage. Bien que chacun des sous systèmes et chacun des organes participe à un degré divers à un l’échange avec l’environnement, ils participent tous à l’efficiencité de l’ensemble. Chaque organe possède une part de l’efficiencité globale, c’est-à-dire la mise en œuvre de processus avec laquelle il cherche à atteindre un but dédié. Complexe, veut dire qu’il existe de nombreuses interrelations avec un système de règles et de séquences. Holistique, veut dire que tout système nouveau intégré dans l’ensemble existant modifie le tout. Systémique , veut dire qu’il y a une régulation endogène et un échange avec l’extérieur. Cette idée est ancienne. Dans la médecine historique, en particulier asiatique, il y avait déjà une vision globale du corps humain avec un système complexe de régulation. Il existe encore aujourd’hui des écoles de médecine traditionnelle basées sur ces principes. Curieusement, les recherches scientifiques peinent encore à s’intéresser à ce sujet. Il y a là un tabou qui semble provenir de la querelle ancienne entre finalistes et mécanistes. Cette querelle prend une forme plus moderne avec le courant téléonomiste. Mettre en avant la finalité fonctionnelle comme processus dans une perspective téléonomiste, c’est doter un organe d’une efficience à atteindre et des moyens d’y parvenir pour que l’ensemble du système fonctionne. La religion chrétienne a longtemps voulu expliquer l’homme et ses fonctions biologiques par une volonté de Dieu. Est-ce bien raisonnable ? Je ne vois pas l’obligation de passer par Dieu pour calmer mon angoisse existentielle. Je préfère comprendre le monde dans lequel je vis et dépasser les frustrations de la difficulté à proposer un univers en cohérence avec mes capacités neuronales. Le développement et le rôle des organes fonctionnels. Chaque sous-ensemble du vivant participe à l’ensemble par le biais des organes. Les organes sont nombreux à l’intérieur de l’être vivant. Quoi qu’il en soit, l’évolution du vivant est liée à celle des efficiencités que vont permettre les organes. Une revue des efficiencités contribue à comprendre la formation d’un système vivant. Cette revue n ‘est peut-être pas complète mais c’est un début de catégorisation en 7 objectifs essentiels. 1 Permettre l’apport d’énergie pour le fonctionnement du métabolisme interne, par le système de nutrition et les sous systèmes d’accompagnement (système digestif, système excréteur) ; Par la photosynthèse qui est un autre système de transformation énergétique ; Par le système d’oxygénation et les systèmes d’accompagnement (système circulatoire, système respiratoire). 2 Maîtriser la perception de son environnement externe et interne . L’exploration peut être statique ou dynamique. Elle utilise un système sensoriel étendu (au minimum les 5 sens). 3 Assurer la défense et la protection du vivant, en dehors du système d’alerte sensoriel. (Système neurologique, système lymphatique, système immunitaire et identitaire, systèmes d’encapsulation (carapace), …). Cela peut prendre une forme directe comme la simple épine de rose au camouflage avec un changement de couleur de la peau, mais également une forme indirecte comme l’arme nucléaire. 4 Permettre la mobilité complète du corps ou seulement d’une partie des organes . (Locomotion, nage, vol, …). Elle peut être indirecte comme la pollinisation par les insectes dans le cas des plantes. 5 Permettre la perpétuation du vivant -l’ensemble des systèmes de reproduction et leurs appendices (pour attirer une femelle ou un mâle par exemple). Elle est peut-être sexuée ou non ou prendre des formes plus subtiles. 6 Assurer une régulation systémique avec son environnement externe et interne . Le vivant a besoin de gérer de nombreux équilibres qu’il va pouvoir assurer par des systèmes mettant en jeu de nombreux organes spécialisés (glandes endocrines, organes spécialisés comme le foie, le pancréas, le thymus, …). 7 Etablir une communication entre vivants. (Système de langage, système de marquage, …) et assurer le traitement de l’information. Cette fonction débouche sur l’apprentissage. Cela permet au vivant de devenir autonome de s’adapter à son environnement physique et communautaire. Ce dernier paragraphe est une présentation séquentielle sans ordre mais il serait plus réaliste de faire une présentation géométrique (voire topologique) où toutes ces fonctions seraient en interaction. Pour créer l’outil qui permet ces efficiencités, l’ensemble global encapsulé possède une boîte à outils extrêmement vaste. L’outil n’est pas prédéterminé dans le détail. C’est plutôt un jeu de d’expressions gagnantes avec des solutions qui fonctionnent. Sixième postulat : le vivant adapte son organisme en s pécialisant ses ressources pour lui permettre l’exercice durable de 7 fonctions essentielles. Les « efficiencités » mises en œuvre par les organes permettent d’atteindre un ou plusieurs buts. Si l’on pense avoir identifié 80 organes chez l’homme, il est évident qu’il faut rechercher des sous-fonctions au-delà des fonctions premières et des sous systèmes organiques. Par ailleurs, outre l’interconnexion entre organes et systèmes, un même organe participe à plusieurs fonctions (la langue, par exemple dont l’usage est multiple). En considérant que la quasi-totalité des systèmes sont interconnectés, on imagine la complexité du vivant. Pour certains cette complexité croissante ne peut être que la source d’une fragilité croissante mais l’argument reste plus intuitif que scientifique. Les organes ayant des fonctions extérieures sont principalement ceux qui sont liés à la perception de l’environnement. L’œil, la bouche, le nez, les oreilles, les poils et la peau. D’autres ont des utilités mixtes intérieur vers extérieur et réciproquement comme le vagin, l’anus, les ports de la peau, les glandes sébacées, etc… (voir les trois premiers postulats). Les exemples d’adaptation au milieu ne manquent pas. Elles concernent dans leur quasi-totalité les 7 fonctions premières décrites ci-dessus. Elles expliquent la diversité biologique. La diversité biologique est associée à l’exploitation opportuniste de niches biologiques produisant un écosystème capable de faire cohabiter des vivants pendant une longue période. La fonction holistique peut jouer un rôle dans cette exploitation. Les organes sensoriels occupent une place importante dans la boîte à outils car ils sont en première ligne du rapport à l’environnement. Et le rapport à l’environnement est la porte d’entrée de l’adaptation systémique. A chacun des 5 sens correspond dans la majorité des cas un organe-fonction principal : l’œil pour la vue (perception des ondes lumineuses), le nez pour l’odorat (perception des molécules en suspension dans le milieu), l’oreille pour le son (perception du son et des vibrations), les doigts pour le toucher (perception de la pression), la bouche et la langue pour le goût. (Perception des molécules d’un corps extérieur). Pour voir, il faut au moins un œil. C’est vrai pour l’espèce humaine. C’est ainsi que l’on désigne le processus qui nous conduit à donner du sens aux milliers de photons qui frappent notre rétine. Et certains ont parcourus durant des milliers d’année des millions de kilomètres. C’est un organe-fonction dont on connaît de mieux en mieux l’ensemble de ces appendices. C’est-à-dire les sous organes qui contribuent à fonctionnaliser l’ensemble du système. Sa formation est très précoce dans la période de différenciation cellulaire. Pourquoi ? Il est possible que le spermatozoïde ait une forme non exprimée dans le contenu de sa tête mais il ne se sert pas de ce potentiel de vision pour trouver l’ovule. Il utilise en effet un capteur chimique pour savoir s’il y a de la progestérone à proximité et accélérer sa course par simple excitation flagellaire. On aurait pu également imaginer un processus physique avec une production d’ondes par l’ovule. L’œil est fortement lié au cerveau dès le stade pré-embryonnaire. Si vous observez des jeunes œufs de calamars ou de seiches sur une plage (ils se déposent par milliers à certaines périodes), vous serez surpris de voir simplement deux petites points noirs minuscules qui se déplacent avec une lentille gélatineuse transparente. L’œil est un organe essentiel pour l’homme et pour de nombreux animaux dès qu’il y a des photons qui circulent. Est-ce pour autant qu’on doit affirmer que l’homo Sapiens sans la vision n’aurait pas existé ? ou plus précisément est-ce que la « conscience » nécessite la vision ? Je n’ai pas la réponse mais l’idée d’une « intelligence humaine » sans vision ne peut conduire à la même forme d’intelligence. Par ailleurs la relation entre conscience et intelligence humaine sont des phénomènes que les scientifiques peinent encore à définir de manière consensuelle. Les yeux sont une réponse à la formation d’une réponse systémique réactive aux photons. Qu’il existe une large palette génétique programmable ou non, C’est le milieu environnant qui semble le déclencheur actif d’un système visionnaire spécifique à l’espèce. S’il n’y a pas de photons, il n’y a pas d’œil. Voilà une affirmation qui mérite d’être précisé. Il existe quelques formes animales sans yeux même là où l’on trouve des photons. L’exception est souvent une imperfection dans le processus de la connaissance. Par ailleurs, le vivant reçoit beaucoup d’autres rayonnements. Il y a encore des mécanismes à découvrir pour savoir s’il existe une perception de ces autres rayonnements. Autre exemple de mécanisme que l’on peut construire sur là-bas d’une encapsulation réactive à l’environnement. Une évolution du vivant dans un milieu salé comme la mer et l’arrivée de la lumière sur cet organisme peut créer cette réaction : processus de différenciation d’une cellule situé sur une membrane extérieure. Elle se spécialise en cellule photoréceptrice sensible à la lumière (le photon). Cette réaction conduit à la création d’une bulle défensive (voire une double bulle ou double lentille) comprenant une enveloppe de protection (et remplie d’un liquide). L’amélioration viendra ensuite avec l’adaptation au milieu et de nombreuses réactions systémiques. On peut faire l’hypothèse que tout être vivant possède à l’origine un organe cellulaire à capacité sensorielle indifférencié et une structure réactive potentielle avec une large palette pré existante de réponses (les millions de combinaisons biochimiques). Elle va participer à un échange systémique qui va lui permettre de perfectionner cet échange et aboutir à un message transmissible au système central et /ou local suivant la nature du vivant. Le processus de différenciation cellulaire va se produire. Pour le moment, l’existence de cet organe cellulaire primaire sensoriel universel paraît plausible. Expliquer la formation de la relation entre le milieu et la palette de solutions est dans la même orientation conceptuelle. Cela ne contredit pas le principe que l’œil est un morceau d’ADN passif du patrimoine héréditaire capable d’exprimer basiquement une simple cellule photosensible. Si tel n’était pas le cas, quel serait le facteur extérieur en dehors du photon qui pourrait déclencher la formation de l’œil. Faut-il introduire la mutation aléatoire comme source du processus adaptatif accompagné d’un processus de sélection naturelle ? Posons la question autrement. Est-ce que la sélection naturelle participe seulement à l’amélioration de la fonction mais pas à sa création ? On remarque que la capacité multifonctionnelle de l’œil humain est parfois moins riche et moins performante que celle de certains animaux mais il a une vertu unique c’est son statut de contributeur à la compréhension de son environnement. L’homme a besoin de voir pour comprendre ce qui lui est inaccessible . La grande majorité de l’événement scientifique se traduit par une vision directe ou indirecte. Il peut s’agir d’une graduation sur une balance, d’une coloration de bactérie sur une lame de microscope, une trace d’un choc de microparticule dans un collisionneur, la trace colorée d’un liquide après une chromatographie. La formulation mathématique elle-même ne vaut que comme outil de représentation. Elle peut renvoyer à un processus de perception sensorielle pouvant faire l’objet d’une modélisation numérique Dans ce cas, c’est le langage qui se substitue à l’image. Ainsi, un nuage peut être représenté par un ensemble de représentations physiques chimiques et mathématiques. Toutefois, l’œil peut instantanément permettre à un groupe d’enfants de dire « ce nuage se déplace vite » alors qu’une formulation abstraite de ce que l’on appelle nuage est d’une difficulté telle que personne n’ose remplacer le dessin du nuage par une expression mathématique. Voir c’est au minimum être frappé par une onde de minuscules particules mais on découvre rapidement que voir c’est beaucoup plus. C’est un ensemble de fonctions qui peuvent se développer. -Captation de signaux (comme les ondes lumineuses - couleurs) et transformation du signal (conduction électrochimique) -Ajustement du système de réception optimisation du champ et de la distance (acuité visuelle, régulation de l’intensité, détection du mouvement, …) - Transmission aux aires cérébrales (décryptage, …), à un organe de traitement (effet caméléon,) -Protection et nettoyage de l’organe (cils paupière et larmes) -Mobilité directionnelle (musculaire, oculaire, …) Il y a probablement d’autres appendices fonctionnels qui seront découverts. Par ailleurs, la relation avec l’environnement s’est développée et a évolué sans pour autant maximiser chaque sous fonction. Ainsi l’acuité visuelle est plus grande chez certains animaux. Pourquoi ? On constate également que l’être vivant peut perdre avec l’évolution des organes qui deviennent des reliquats. Ainsi le coccyx serait un reliquat de queue. Les yeux également peuvent disparaître (probablement à l’état de reliquat) chez certains animaux qui n’en ont pas besoin. Il y a beaucoup d’autres exemples. Ce phénomène conforte la voie de l’échange systémique au cours de l’évolution du vivant Dans l’étude de création d’organes fonctions, on doit s’interroger sur la séquence d’apparition des organes et de leurs appendices. L’organogénèse nous offre un très riche ensemble d’informations mais ne nous donne pas encore de clé pour établir un schéma accessible à l’intelligence humaine. Par exemple, pourquoi le sens du toucher apparaît en premier ? Ou est-ce que le fait que le toucher apparaisse en premier donne plus de chances de survie à notre espèce ? La fonction de protection liée à la perception de l’environnement serait alors un mécanisme primaire indispensable à la survie et celle-ci serait d’abord une affaire de peau. Curieusement, c’est le cas du Lombric dont le système nerveux est notamment directement sensible à la lumière. Parenthèse. Les découvertes scientifiques s’accélèrent. Les théories de l’évolution du vivant d’Aristote, Darwin, Lamarck et les autres feront le bonheur des historiens. Les courants actuels se situent moins dans des controverses théologiques ou philosophiques mais plus dans une logique positiviste. J’adhère… Fin de la parenthèse. Pour avoir de l’énergie, il faut se nourrir. C’est vrai pour le monde animal. Qu’est-ce qui se forme en premier la bouche ou l’estomac (ou le gésier) ? Poser la question sous cette forme n’a peut-être pas beaucoup de sens si l’on considère que le système d’alimentation animal est un ensemble de sous fonctions diverses et variées. Ce qui semble plus correct, c’est de dire que l’appendice branché sur l’extérieur est essentiel et peut prendre la forme d’une bouche. C’est le cas pour l’espèce humaine. Si la bouche est un appendice spécialisé qui est en relation avec le milieu extérieur, l’estomac est l’organe par lequel transite tout type de nutriment. D’autres appendices spécialisés vont aider cet organe à remplir son rôle de transformation de nutriments. Comme pour l’œil, les solutions sont nombreuses pour assurer l’apport d’énergie. Chez le bivalve, la fonction digestive est très achevée (absorption- traitement- rejet) mais la bouche n’existe comme bouche que lorsqu’elle s’ouvre. Chez l’ornithorynque, un mammifère, l’estomac a disparu et sa digestion est glandulaire. Par la suite, la sélection naturelle et l’ ajustement génétique systémique vont permettre une adaptation organique à l’environnement. Le besoin énergétique engendre des solutions très variées mais en fait très peu nombreuses si l’on considère celles qui ont émergées de manière dominante. La moule semble être d’une grande ancienneté dans le monde – on constate que son appareil digestif est évolué et on peut imaginer que la bouche est un bivalve raté qui a vu son système de digestion se former en dehors de la bouche qui dans certains cas était aussi fonctionnellement l’entrée d’air – On peut imaginer de multiples combinaisons de recherche d’apport énergétique avec ou sans mobilité, avec appendices actifs ou passifs, … Bref on peut tout imaginer et on a encore beaucoup de travail à faire pour remonter au système primaire. Ce que l’on sait, c’est que la croissance organique admet de nombreuses solutions topologiques et physico chimiques en réaction au milieu. Reste la question de la manière dont un système simple peut s’enrichir pour devenir complexe ou bien possède-t-il déjà l’ensemble du possible et il n’y a plus qu’à appuyer sur le bon bouton (essai -erreurs de manière aléatoire ou intelligence systémique) pour cheminer vers plus d’adaptation. L’apport d’énergie peut se faire autrement que par le nutriment. Les photons permettent la photosynthèse dans le monde végétal et celui des cyanobactéries. Cette conversion produit du glucose, un support énergétique qui participe au fonctionnement de la plante. Cette identification en 7 fonctions essentielles est très insuffisante. D’une part, il existe probablement d’autres fonctions sensorielles que l’on identifie mal. Par exemple, La perception des ondes électromagnétiques, la perception gravitationnelle, la perception des rayons diverses (comme les ultra violets), la perception électrochimique, l’électrolocalisation. D’autre part, il existe des organes actifs tout aussi importants pour les échanges avec le milieu. L’envoi d’ultrasons par les chauves-souris en est un simple exemple. A cela ajoutons que les organes communiquent entre eux dans une interaction complexe que l’on commence à découvrir. Ajoutons que l’échange c’est aussi prendre en compte le rejet systémique dans le milieu extérieur. Les fonctions de rejet sont multiples par l’émission de gaz, de matière et de liquide. Les voies de rejet sont tout aussi multiples qu’il s’agisse de l’intestin, des poumons, de la peau et bien d’autres, …. Cela signifie bien qu’il ne peut y avoir d’écosystème stable et figé par nature mais que ce sont les relations entre sous systèmes qui procurent un équilibre acceptable. La relation milieu externe – réponse interne va résulter d’une adaptation organique. La prolifération des combinaisons génétiques et la sélection naturelle vont jouer un rôle important. Il est raisonnable de penser que le système de perpétuation de l’espèce est à l’écoute de l’adaptation à l’environnement. Une question cependant demeure : Prenons l’hypothèse du jeu de combinaisons et l’intervention d’un principe de désorganisation dû à l’environnement ; alors la porte est ouverte et il se produit des nouvelles combinaisons. Il devrait donc être possible d’observer de très nombreuses solutions de transformations organiques du vivant chez toutes les espèces. Bien qu’il y ait des millions d’espèces d’insectes, des milliers de solutions établissant une perception visuelle, il semble qu’il n’y ait pas de création « monstrueuse ». Par monstrueuse, il faut entendre la création soudaine d’un être vivant qui posséderait un ensemble de pouvoirs qui le ferait bondir comme vivant avec un pouvoir de domination absolue. Cela se produit dans les films (Gordon Douglas, 1954, A horror horde of crawl- and-crush giants) mais pas dans la réalité. Pourquoi n’y a-t-il pas de chimère de ce genre ? Tout semble se situer dans le cadre d’une évolution à partir d’une source primaire qui régule cette évolution créative d’une certaine manière. Même l’humain qui possède des capacités exceptionnelles de domination de la nature peine à vaincre le virion qui resurgit régulièrement. Notre réflexion sur ce sujet n’est pas encore aboutie mais évoque l’idée d’un encadrement avec des limites. Septième postulat : Le hasard créatif n’est pas sans limites Il s’inscrit dans un cadre holistique régulateur. Parenthèse : Il ne faut pas abuser de l’holisme. Répétons-le, c’est une dénomination qui concerne les différentes propriétés actives qui se produisent seulement dans un contexte spécifique d’éléments réunis ensemble. Fin de la parenthèse. Dans le processus de sélection naturelle, même s’il faut du temps, la mutation semble apporter une solution qui progresse de sorte qu’une solution plus efficace chasse la solution moins efficace. C’est comme une course qui n’en finit pas avec un temps de retard. Toutefois, le sixième postulat n’interdit pas l’existence d’une transformation de l’information héréditaire relevant d’un processus d’origine systémique . La variabilité de l’expression génétique ne provient pas seulement d’un phénomène aléatoire mais d’une modification du patrimoine héréditaire par un lien systémique actif entre le milieu extérieur et la production génomique. L’idée d’une adaptation systémique est de moins en moins une hypothèse qui sous tend un processus indépendant dont la complexité est certaine. En effet, les lois de survie d’un système vivant dans un milieu extrêmement agité et évolutif commencent seulement à livrer leur secret. Actuellement aucun élément ne permet de confirmer expérimentalement la piste de l’adaptation génétique systémique. On constate bien des relations de causalité et on vérifie que l’expression génétique peut être modifié ainsi que le patrimoine héréditaire. Un facteur environnemental peut agir sur le patrimoine héréditaire mais il ne s’agit pas nécessairement d’une adaptation. Quel mécanisme serait susceptible d’aboutir à une transformation guidée pour corriger la relation vivant environnement à son bénéfice. On ne connaît pas encore ce mécanisme de capture et d’interprétation de l’information ainsi que le mode de communication biochimique. Une autre hypothèse actuelle est que le génome contient l’ensemble de tous les potentiels adaptatifs et que le processus d’expression n’est qu’un processus sélectif parmi d’autres. Dans ce cadre déterministe, le potentiel d’expression est fini et programmable à défaut d’être programmé. Il suffit d’identifier le déclencheur. Actualisation 2020 : Les connaissances évoluent si vite que ce j’ai écrit en 2015 n’est plus tout à fait d’actualité. Une mise à jour serait nécessaire mais le but de ce blog est de progresser sans effacer les écrits antérieurs afin d’améliorer le raisonnement. Ce qui me semble se confirmer c’est un processus à étages du processus adaptatif systémique. L’assimilation génétique en est l’aboutissement. Le processus conduisant à cette assimilation semble concerner plusieurs étages dont la plasticité phénotypique est l’étage le plus immédiat et observable. L’étage épigénétique pourrait être un étage intermédiaire moins flexible. Au final, l’expression génique (ou génétique) sans modification de la chaine des nucléotides serait susceptible d’intervenir auprès d’une classe spécifique de gènes. Quant à l’étage premier de la mutation génétique du patrimoine héréditaire central (c’est-à-dire stable dans sa transmission), elle ne serait que le résultat d’une mutation quasi exceptionnelle. Cette conception à plusieurs étages du vivant fait également intervenir la relation entre temps et diversité. La vitesse du changement environnemental conditionne l’étage qui peut être sollicité pour que cette adaptation se réalise. Le mécanisme d’assimilation et d’encodage génétique serait plutôt un mécanisme de sauvegarde qui pérennise une solution adaptative qui fonctionne. Cette conception pose plusieurs questions : Est-ce que l’état de l’environnement et la vitesse de son changement affecte chaque vivant de la même manière ? L’impact se fait-il en fonction de la structure qualitative des étages ? c’est-à-dire robustesse de la transmission héréditaire versus malléabilité, amplitude de la diversité génétique versus étroitesse de la diversité, vitesse d’intégration verticale d’un étage supérieur (directement sensible à l’environnement) à un étage inférieur (identité génétique primaire). Est-ce qu’il y un processus réversible et désadaptatif ou bien le processus adaptatif est-il globalement entropique ? Cette question est liée à ce que l’on considère comme un « coût ». La notion de coût implique par exemple une adaptation qui demande plus d’apport d’énergie, moins de fécondité, perte partielle d’une fonction sensorielle … Un processus adaptatif peut effectivement aboutir à mettre en jeu l’équilibre global de manière défavorable, à accroître la capacité d’une autre espèce à dominer. Huitième postulat : la résilience d’une espèce vivante dépend d’un rapport entre la vitesse de modification de l’écosystème de l’espèce et l’indice de plasticité composite des étages génoactifs (étage génétique, épigénétique phénotypique). On peut imaginer que chaque vivant trouve au fil du temps une ou plusieurs voies pour créer un système d’un niveau plus adapté à son environnement que l’on appellera « niveau supérieur », plus complexe, plus organisé, englobant le système inférieur de moindre niveau. Chaque niveau supérieur de complexité succède au niveau inférieur. Ce processus n’est pas la garantie que cette évolution conduise individuellement à une plus grande adaptation à l’environnement. Par contre, Il est plus probable qu’il y ait une adaptation collective plus performante par le jeu de la sélection naturelle. La complexité organique favorise t-elle l’adaptation ou l’inverse ? Le vivant s’est développé par une capacité plus ou moins rapide à faire progresser les efficiencités de ses organes. On n’a pas encore déterminé la genèse de ceux-ci (l’œil fait exception) depuis l’apparition du vivant. Certains organes ou parties d’organes semblent être des vestiges qui ont accompagnés le développement de l’espèce humaine. En revanche, on ignore si le foie, comme beaucoup d’autres organes, a évolué au cours des âges. Mais s’intéresser seulement à l’organe est insuffisant. D’une par pace que l’organe fait partie d’un ou plusieurs systèmes et que lorsque plusieurs systèmes se retrouvent pour remplir une fonction, on parle d’appareil, l’appareil respiratoire, l’appareil locomoteur, l’appareil digestif par exemple. Par ailleurs, le rôle de la différenciation cellulaire et de la capacité d’un organe à « appeler » la cellule souche à se convertir à son service commence seulement (les cellules pluripotentes en 2006) à être exploré. Tous les jours des liens systémiques entre organes qui sont découverts ou précisés. Ce sont des liens propres à l’espèce d’appartenance. Chaque vivant développe un type holistique spécifique ayant une empreinte systémique . La recherche se penche de plus en plus sur la description du profil systémique biologique de l’espèce. La classification phylogénétique et l’identification des taxons va dans ce sens. Cette connaissance est encore insuffisante. Elle est importante car elle joue probablement un rôle semblable au mécanisme d’acceptation ou de rejet d’une greffe. Parenthèse : la médecine d’aujourd’hui semble commencer à intégrer une approche différente et rechercher une personnalisation systémique des équilibres plus individualisé. Bien que chaque Sapiens développe une typicité biologique, les normes des analyses de laboratoire indiquent une normalité basée sur une fourchette statistique et si possible en fonction de critères tel que l’âge, le sexe, etc. Le pronostic, lui, tient compte du diagnostic eu égard à d’autres critères en fonction du passé de l’individu. C’est le cas pour le cholestérol dans le sang, l’adénome prostatique, l’accumulation tabagique et l’asthme, etc… L’intérêt de la typicité biologique sera de pouvoir intégrer le profil génétique et épigénétique plus complètement dans le système de traitement médical et non pas de se contenter d’une liaison héréditaire supposée d’un mauvais gène. Fin de la parenthèse. Il y a donc une complexité organique et systémique qui semble beaucoup plus riche qu’on ne le croyait. Cette complexité est-elle plus favorable à l’adaptation du vivant à son environnement ? Parmi les hypothèses, il y en a une qui met en avant la disparition ou le blocage de l’expression de certains gènes chez le Sapiens pour expliquer son évolution et en particulier celle de son cerveau. Cela aurait permis un développement inattendu de potentialités nouvelles cognitives et mémorielles. Cette évolution est spécifique à l’Homo Sapiens mais plus largement qu’en est-il de l’évolution du patrimoine héréditaire du vivant ? Quand les poules auront-elles des dents ? Une réponse plus difficile qu’il n’y paraît. On est tenté de répondre « jamais » car en cas de perte du gène primitif, la perte est irréversible. Mais est-ce bien le cas ? Si l’on accepte la théorie évolutionniste, la perte d’un gène est le résultat d’un processus de grande envergure et qui peut s’étaler sur une longue période. Soit il y a une perte complète (délétion du gène et de ses allèles) et pour retrouver des dents, il faudrait procéder à un croisement entre espèces compatibles dont l’une aurait conservé ses dents. Ou bien, le gène est devenu inactivable parce que le mécanisme d’activation ne joue plus son rôle et dans ce cas, cela devrait être possible… un jour lointain …. Car cela fait déjà 80 millions d’années qu’elle attend. Heureusement, la poule a trouvé une autre solution en mangeant des dents, ces petits graviers qui se trouvent dans le gésier. La vraie question serait plutôt : Pourquoi les poules n’ont pas de dents alors qu’elles semblent en avoir besoin ? C’est bien pratique pour écraser le grain de maïs. Alors, est-ce parce qu’elles ont plus besoin d’un bec sans dents que de dents ? La réponse n’est pas satisfaisante car elles pourraient avoir un bec et des dents. Faut-il chercher une raison évolutionniste pour expliquer l’absence de dents ? La perte d’un gène fait également partie de l’adaptation positive. Il faut alors chercher les fondements d’un tel processus d’adaptation s’il n’est pas purement aléatoire. Non, il n’y a pas encore de consensus sur la réponse. Comment se modifie le patrimoine héréditaire en réaction systémique d’adaptation à l’environnement ? L’idée qui vient en premier dans cette période scientifique est celle d’une forme spécifique d’ARN messager qui fonctionne de l’organe vers le patrimoine héréditaire. On sait que la formation des ovocytes primaires se fait très tôt dans la vie de la femme. On peut donc supposer que le processus de messagerie inversée se produise sur plusieurs générations par une accumulation mémorielle, un genre de cicatrice (une trace mémorielle dans l’organe) qui se forme et qui finit par migrer et s’intégrer comme processus actif dans les cellules germinales. Ce processus est-il irréversible ou va-t-il durer pendant plusieurs générations Il existe probablement d’autres possibilités. Trouver le chemin qui démontrerait une de cette possibilité n’est pas hors de portée. Plus simplement l’environnement provoque un marquage épigénétique qui peut se transmettre ou non, persister ou disparaître. L’expression génétique et épigénétique est un immense bazar. Les dents, les yeux, les écailles, les exosquelettes, les carapaces, les ongles rétractiles et autres babioles procèdent d’un même ensemble de base génétique qui sera exprimé différemment – toutes les finalités étant dans tous les chromosomes - Cette expression génétique va suivre un calendrier biologique sous l’influence de l’environnement de proximité et humain mais aussi cosmique. Ce bazar laisse soupçonner qu’une descendance identique est un leurre. Neuvième postulat : il n’est pas possible pour un être vivant de se reproduire et encore moins de se développer totalement à l’identique. Avec un même matériel génétique, il y a des différences entre vrais jumeaux (monozygotes). Les empreintes digitales par exemple. D’autres indices montrent qu’un clonage n’est pas identique à 100%. Pourquoi ne pas en conclure que la variabilité se joue en une infime fraction de l’espace et du temps ? Cela signifierait que la différence est la règle universelle. Sans adaptation systémique, il existe une variation importante de l’expression génétique et des mutations génétiques et épigénétiques qui sont d’ordre aléatoire. L’être vivant qui succède au précédent (dans un temps linéaire) est donc différent. Avec de la chance, il s’adapte mieux au milieu dans lequel il vit, ou il trouve le milieu dans lequel il peut vivre. Avec de la malchance, il va disparaître. Dans cette version, le déterminisme n’existe pas. La transformation systémique et la sélection naturelle expliquent conjointement l’évolution du vivant. Seul point de discussion. La variabilité du vivant est-elle suffisamment rapide pour permettre cette sélection. Cela suppose que l’environnement évolue moins vite que le système de variation génétique. Quand les poules auront-elles à nouveau des dents ? La perte des dents des poules primitives semble irréversible et un retour des dents est considéré comme impossible. Cela fait 70 millions d’années que les oiseaux ont perdu leurs dents. Cela fait long ; et cela pose le principe d’une irréversibilité temporelle de l’espèce, une crémaillère qui n’avance que dans un sens que les astrophysiciens appellent « la flèche du temps ». Un raisonnement logique voudrait simplement que le patrimoine héréditaire ait perdu un chainon complet (ou son traducteur) soit par suite d’un hasard aléatoire, soit par un hasard systémique. Si l’on retient le hasard systémique, les poules auraient donc perdu leurs dents dans une catastrophe génétique qui a touché l’ensemble de l’espèce mais elles ont pu survivre. Le mot catastrophe indique que la cause est collective et soudaine. Il faudrait envoyer un légiste dans le passé pour en déterminer la cause. Cela pourrait être une cause extérieure (micro organique, climatique, cosmique). L’hypothèse du hasard génétique est elle incompatible avec une vision déterministe ? Non pas nécessairement. On peut imaginer que le processus biologique cherche d’abord des solutions concrètes instantanées adaptatives de survie et ne cherche pas à projeter ses solutions dans le futur. Ce n’est qu’ensuite lorsque le système est stabilisé (le temps joue un rôle d’amortisseur) qu’elle peut engendrer un mécanisme de changement à la marge. Ainsi un fœtus qui a un seul rein ou trois reins n’enfantera pas plus tard un descendant à un ou trois reins. Stabilisé, signifie que le système accepte un certain niveau d’imperfection pour survivre sans enclencher un processus de transformation. Dixième postulat : l’adaptation génétique à l’environnement qui s’intègre dans le patrimoine génétique héréditaire est un processus marginal. Il peut donc exister une programmation génétique pré déterminée qui va évoluer à la marge au gré des circonstances contextuelles. Cela signifie qu’il existe à la fois des catégories de boutons activables et un patrimoine dormant, des boutons qui ne sont pas nécessairement activés et des programmations souches plus fondamentales. Le principe d’asymétrie spatio-temporelle est elle la source d’un mouvement sans retour ? L’asymétrie temporelle est un concept millénaire. Ainsi, le Yin et le Yang reposent sur la dualité des choses de la nature et du cosmos dans la philosophie chinoise. Complémentaires et opposées, l’une étant partiellement dans l’autre et réciproquement. Elles ne peuvent pas s’équilibrer durablement et induisent une dynamique que l’on ne peut arrêter. Si l’on introduit la temporalité, on peut représenter ainsi un système en perpétuelle évolution qui se transforme. Tout système est soumis à une dynamique asymétrique de recherche d’équilibre qui conduit, in fine, à une entropie délétère lorsque la dynamique s’arrête. Le mouvement, c’est la vie . L’homme est donc mortel car ce déséquilibre temporel asymétrique est « usant » au sens propre, est une loi de l’univers. Onzième postulat : l’asymétrie temporelle que représente l’écoulement unidirectionnel du temps est une propriété subie par le génome dans son processus de reproduction et de transformation quel qu’en soit le mode. Osons, Osons : le temps, c’est l’arbitre de la vie. Quand le mouvement gagne sur le temps, c’est la vie. Quand le temps gagne sur le mouvement, c’est la mort. Si l’on considère le vivant comme le résultat d’une forme de reproduction ou de réplication, quel que soit la richesse des ressources extérieures qu’il capture à son profit, il ne peut que retarder une dégradation de l’ensemble de ces systèmes organiques. Il n’y a pas de possibilité de renaissance du système complet dans l’état actuel de nos connaissances scientifiques. Toutefois, les succès récents montrent qu’il est possible de régénérer certains organes détruits à partir des cellules souches. Faut-il remettre en cause le principe de l’irréversibilité ? L'ADN est dit avoir la propriété de pouvoir être produit à l'identique. C’est ainsi que l'information génétique se transmet à l’identique d'une cellule mèr e aux cellules filles lors de la division cellulaire. Est-ce bien vrai ou une approximation utilitaire ? Parenthèse : Nous vivons dans un monde d’approximations utilitaires. Certaines sont perceptuelles comme une vision continue d’une série d’images discontinues (la bande cinématographique) ou de points qui s’allument (la télévision). Certaines approximations sont mathématiques faute de pouvoir obtenir un cadre transposable dans la réalité observable. Fin de parenthèse. Que devient le postulat de la non-reproductibilité à l’identique et de l’irréversibilité spatio-temporelle. Si l’on accepte ce postulat, il n’y a pas deux champs de gravité spatio-temporels identiques et donc il y a une différence entre cellule mère et cellule fille. Il ne s’agit pas d’un artefact rare – une impureté stochastique - qui peut subvenir en raison de conditions particulières mais bien d’un corollaire du septième postulat qui avance que la reproduction à l’identique d’une cellule n’existe pas . On sait qu’il n’y a pas de vrais jumeaux si l’on considère le détail de ses particularités. Toutefois la réplication de la cellulaire ordinaire semble bien quasi identique. Cela s’explique par l’extrême rareté du phénomène mutagène. Une mutation de la lignée germinale ou somatique est considérée comme un phénomène rare et comme une erreur programmatique dont la cause est d’abord environnementale. Le neuvième postulat introduit une sensibilité spatio-temporelle qui n’est pas détectée à ce stade de la science. On peut imaginer cependant que cette sensibilité sera détectée dans les prochaines années dans les expériences menées dans l’espace. Une modification importante et durable de l’expression des gènes est actée par la NASA faisant suite au voyage dans l’espace en 2015 d’un cosmonaute ayant un jumeau (les jumeaux Scott et Mark Kelly) resté à terre. Cependant, Il n’y a pas eu à notre connaissance d’expérience complète, de la fécondation à la reproduction de mammifère dans l’espace à ce jour. Une fécondation a bien eu lieu dans l’espace mais la gestation a eu lieu sur terre. Quelles sont les autres voies de la transformation du vivant ? La plasticité phénotypique est un vocabulaire contemporain pour désigner la grande variation des solutions observables et descriptibles de la fonction organique. Plus scientifiquement, c’est la capacité d’un code génétique (génotype) unique à exprimer plusieurs caractéristiques (phénotypes). Ces caractéristiques dépendent pour partie des conditions environnementales. Par exemple la « dunaliella » est une algue verte unicellulaire qui s’adapte à la forte salinité et au soleil en produisant des pigments anti oxydants qui lui donne sa couleur rose. Cette algue était connue mais a été étudié seulement au 20 ème siècle. D’où vient cette capacité d’adaptation et quelles en sont les limites ? On peut expérimenter - c’est bien ce qui se fait- mais on manque encore de base théorique. L’observation de la plasticité phénotypique est très large parce qu’elle relève de l’observation directe et rend possible l’expérimentation en particulier concernant les plantes. La conceptualisation reste pauvre comme on le constate quand on se contente d’écrire P (Phénotype)= G (génotype)+E(Environnement). Le phénomène est plus complexe et sa connaissance progresse si vite que je n’ai pas le temps de terminer ma réflexion sur l’évolution du vivant que ... . Par ailleurs, il semble que l’évolution adaptative soit plus positive (adaptation à l’environnement) globalement que régressive (désadaptation à l’environnement). Pour réellement affirmer cela, il faudrait enlever le processus d’extinction des espèces dû à un évènement comme une catastrophe rare ou l’invasion territoriale de l’Homo Sapiens. Ce dernier facteur peut remettre en cause la tendance évolutive naturelle du vivant. Quelles sont les limites de l’adaptation phénotypique ? Quelles étaient les caractéristiques de l’œil humain chez le néanderthalien et avant ? L’homme vieillit et donc il a besoin plus longtemps de ses yeux. La presbytie va t’-elle reculer ? le vieillissement du cristallin peut-il être décalé de génération en génération ? Quelle pourrait-être la prochaine adaptation de l’œil humain ? répondre maintenant à cette question est un pur exercice d’école mais il montre bien la complexité du problème posé. Il est cependant probable que l’on n’attendra pas une mutation génomique ou une expression nouvelle phénotypique produite par le hasard mais que l’on agira directement sur la cellule souche … un jour… ou sous certaines conditions d’urgence sanitaire. Imaginons qu’un virus s’attaque au cristallin humain…. Actualisation 2020 . Quand j’ai écrit ces lignes entre 2015 et 2020, je ne pensais pas à la COVID 19 et à son impact sur la santé à long terme. Mais il apparaît que ce dernier puisse laisser des séquelles après guérison et notamment des troubles oculaires (Chémosis, un œdème de la conjonctive, signalé dès le début de l’épidémie). La transformation du vivant au fil du temps est expliquée par une adaptation sélective de l’espèce à son environnement, la sélection naturelle, et par la transformation accidentelle du génome. Rarement, est envisagé, une rétroaction systémique qui serait une forme d’adaptation intelligente du génome. L’adjectif « intelligente » n’étant pas approprié, j’en conviens. Le vocabulaire serait plutôt transformation apprenante systémique. C’est une forme de transformation induite en réaction à un environnement qui ne satisfait pas la finalité de la fonction. Cela suppose un échange traçable avec le milieu environnant, comme une capture d’événement avec une trace mémorielle. Le circuit du changement systémique apprenant n’est probablement pas direct mais procède d’une liaison avec d’autres organes comme le cerveau et certains centres neuronaux. Sous cette hypothèse, la transmission au patrimoine génétique et une reproductibilité durable de la transformation se situent au bout du processus. Douzième postulat : La transformation du génome peut également provenir d’un processus apprenant du vivant. On peut combiner la théorie évolutionniste et la théorie de la transformation apprenante systémique dans l’évolution de l’espèce. On peut légitimement s’interroger sur l’idée que toute dynamique aboutit à une transformation et qu’il n’existe aucun évènement neutre. Ne tombons pas dans l’excès inverse qui consiste à imaginer que toute modification infime de l’environnement agit en profondeur. Parenthèse : C’est le cas de certains cercles comme ceux qui valorisent l’homéopathie ou qui croient à la mémoire de l’eau. La mémoire de l’eau a fait couler beaucoup …d’encre. En fait, ce sujet pose deux questions : la première est celle de la trace mémorielle si infime qu’on ne peut la déceler ? la seconde est de considérer que le milieu a été transformé et a gardé cette transformation ? Si dans le présent et le futur, aucun élément observable ne permet de déceler une eau différente, par exemple, en raison d’une dilution extrême de l’infime molécule colorante ajoutée, alors il faut considérer que c’est simplement un abus de langage de parler de mémoire de l’eau. Il en est de même avec un système complexe. Tout évènement ne participe pas à une transformation du système. Fin de la parenthèse. Quelle dynamique participe à la transformation du vivant ? Le vivant est soumis à une extrême pression de l’environnement. Essayons d’en identifier les lignes de forces avant d’en déterminer leur impact. Quelles sont les lignes de force universelles qui influencent l’évolution du vivant ? Le vivant est une combinaison entre la nature planétaire présente à un moment favorable donnée et des lignes de forces universelles ou gouvernes qui conduisent à l’évolution du vivant. La gouverne est une propriété de l’univers qui met en relation systémique l’environnement et tout ensemble encapsidé. Ces gouvernes sont au moins au nombre de 5 : - La gravitation ou plus largement le champ gravitationnel - Le temps ou plus largement l’espace-temps - L’énergie ou plus largement les forces de rayonnement - La force H, un ensemble de processus d’ordre universel intrinsèque qui relie l’ensemble du système du vivant, Un genre de lien « fantôme » entre les éléments du système. - Le force R, qui engendre un processus de reproduction-réplication expansionniste depuis la présence d’un vivant 0. Le quatrième facteur, la force H, n’est pas encore défini en tant que variable mesurable. Elle permet de palier soit à une insuffisance de connaissances, soit à une logique arbitraire qui se heurte à des difficultés. Sans commentaires… On peut imaginer des conséquences de ces gouvernes liées aux capacités du vivant : sa capacité d’expansion-contraction, à s’étendre ou se replier, à se nourrir des autres ou être mangé, à asservir ou être asservi. Le stop and go, le continu et le discontinu. L’équilibre ou le déséquilibre de l’écosystème vivant est le résultat d’un jeu de forces dont la stabilité n’est pas garantie au delà d’une certaine période. Dans le domaine social, quel que puisse être l’état d’âme du vivant, sa plus grande préoccupation c’est l’autre. Celui qui a le même objectif. Le résultat : acceptation ou refus, assimilation ou rejet, conquête ou défaite n’est que l’aboutissement de l’échange et de la confrontation. Il y a donc un écosystème social dérivé. Intervient-il dans le processus génétique d’évolution du vivant ? Faut-il relier l’adaptation du comportement social animal à une évolution de l’espèce ? La combinaison de ces gouvernes va conduire à la formation originelle d’un résultat - une forme vivante adaptée à son environnement et former avec lui un écosystème évolutif plus ou moins rapidement en fonction des rapports de domination ou de compromission des formes vivantes entre elles et avec l’environnement - le vocabulaire fleurit : mutualisme, commensalisme, amensalisme, parasitisme, …-. Chacune des gouvernes est une propriété de l’univers. La gouverne « gravitation » qui définit la force de masses qui s’attirent entre elles est une gouverne d’organisation et de transformation du vivant. Le vivant terrestre semble acquérir pleinement ces fonctions biologiques en se structurant sous l’effet gravitationnel. S’agit-il d’un contexte favorable spécifique de la fourchette de gravité ou cette gouverne est-elle plus généralisable ? La topologie gravitationnelle au niveau de la cellule et en particulier des chromosomes a sans doute une importance dans la réplication. Je ne vois pas comment il pourrait en être autrement. La gouverne « temps » ou plutôt « espace-temps » est depuis la mise en évidence de la relativité restreinte et générale plutôt une loi qui régit l’univers et la perception du temps et de la durée propre à l’homme. Le vivant est gouverné par l’espace-temps (sans qu’il en soit une conscience aigue) et cherche à s’approprier de l’espace- temps ou plutôt de la durée disponible dans un espace-temps donné. Cette durée disponible, c’est un besoin d’être hors du temps. Il lui est nécessaire pour ne pas être synchrone de manière systématique avec les éléments extérieurs à son écosystème. L’Homo Sapiens par rapport à l’animal ressent plus ce besoin. Il va conduire à une isolation protectrice (ralentir le temps) avec son milieu et donner lieu à une généralisation de l’enveloppe protectrice sous différentes formes telles qu’une simple membrane filtrante, une coquille, une muqueuse, etc. Il peut prendre une forme plus élaborée avec la recherche d’un isolement psychique (que l’on trouve par exemple dans le bouddhisme). La fonction grégaire socialisante et l’apprentissage mutualisé fait partie de cette gouverne. La relation de la reproduction du vivant avec le temps est complexe et mal connue. La durée de vie, la durée de la gestation, la vitesse de reproduction, la chronobiologie d’une manière générale pose encore plus de questions qu’elle n’en résout. La gouverne « énergie » est également une propriété universelle qui s’exprime en permanence dans l’univers. L’univers produit de l’énergie - par exemple, énergie solaire qui reste essentielle - qui alimente le vivant de manière directe ou indirecte. Tout vivant de manière simple ou complexe consomme de l’énergie et la transforme au besoin pour sa propre survie et celle de ces congénères. L’ensemble du système vivant depuis qu’il est apparu a produit un système de capture et de transformation de l’énergie externe au profit du système interne. La fonction d’échange fait partie de cette gouverne. La force H comme holisme pose comme postulat qu’il existe des forces intrinsèques d’ordre universel qui sous tendent la manière dont se construit l’écosystème du vivant. Cela n’est pas le principe d’un déterminisme absolu mais le postulat qu’il existe des systèmes organisés qui déterminent certaines finalités. Le monde des fourmis lui-même semble recourir à une force de liaison H qui permet à la collectivité de subsister de manière pérenne. C’est le groupe qui génère l’auto-organisation des individus dans le but de l’adapter à son environnement. La relation de désorganisation est la relation naturelle mais la force H tente de surmonter les artefacts déstabilisants et de créer une relation d’ordre. Plus il arrive à créer une relation d’organisation, plus la tendance contraire augmente et conduit finalement à l’entropie du système vivant dans une logique d’irréversibilité. Le vivant à la fois prend son temps et capture le temps. Il s’agit d’un paradoxe étonnant. D’une source vitale initiale, le vivant mettra des millions d’années à évoluer, à multiplier ces formes de vie par des pas plurimillénaires. Il résistera globalement aux épreuves du temps faisant fi des catastrophes naturelles. Le facteur H est également une force néguentropique qui compense la désorganisation apparente du système vivant. C’est le temps holistique. Comme tout système, il est conduit à échanger pour se développer. Sa capacité à échanger au-delà de la planète est encore faible. L’apport d’énergie solaire est la seule ressource de l’univers qui est exploitée. L’autre facteur, c’est sa capacité à se créer du temps en le capturant. L’encapsulation permet de créer une fenêtre de temps intérieur . Il permet une chrono activité à une vitesse différente adaptée à son environnement. Par exemple, le temps de d’éclosion face à la menace ou l’absence de menaces de prédateur peut varier chez certaines espèces. L’ensemble de ces gouvernes s’exprime dans ses conséquences par la réplication-duplication et la transformation du vivant qui rentre dans la logique d’expansion-domination. Les formes résultantes sont multiples. Le vivant se veut impérialiste et égocentré (au centre de la puissance) avec des forces qui s’opposent et trouvent un équilibre plus ou moins durable. Le système de reproduction participe à cette gouverne. La force R va venir compléter cette présentation des 5 gouvernes. Reproduction, multiplication, dissémination, fusion, conduisent l’instinct végétal, animal comme l’instinct humain c’est-à-dire toute forme de vie. C’est une propriété universelle qui s’exprime principalement dans ses conséquences par la réplication-duplication et la transformation du vivant. Il s’agit d’une gouverne qui conduit tout système vivant (plus précisément toute force vitale génomique) à s’épandre pour dominer son écosystème ou à se contracter pour résister à une menace environnementale. Cette force R occupe une place essentielle dans la définition du vivant. Pour ce faire, mille et un moyens seront utilisés pour proliférer. La réalité dépasse la fiction et le génie créateur est dans les gènes. La perpétuation est-elle une composante de la force R ou simplement une conséquence de l’expansion ? la réponse est encore incertaine. Les formes résultantes sont multiples dans ce qui semble être un combat permanent pour vivre. Le vivant se veut impérialiste et égocentré (au centre de la puissance) avec des forces qui se rencontrent et trouvent un équilibre plus ou moins durable. Il est capable de fusionner comme l’ont fait le néandertalien et le Sapiens. Il n’y a pas de garantie évolutionniste et certaines fusions conduisent à rendre l’hybride stérile. C’est le cas dans le monde animal et végétale. Cela a pu être le cas chez l’humain. Parmi les mécanismes mis en œuvre, on peut s’interroger sur le rôle de l’apoptose, une forme de régulation du système qui peut être un levier du facteur R, le développement cellulaire est partiellement lié à cette fonction régulatrice. P arenthèse : mettre en avant une force R nous permet d’échapper au débat finalistes-mécanistes et de nous positionner. Pour les uns ce serait une force propre à l’espèce, pour d’autres propre à tout génome, ou bien encore à une combinaison de base moléculaire propre au vivant 0. L’ADN quelque soit son enroulement et sa composition serait au centre de cette force R. Même si le processus est sans doute un peu plus complexe, l’idée reste qu’il existe une force R qui est universelle. Fin de la parenthèse. La multiplication virale qui s’installe dans un système vivant fait également partie de cet ensemble de gouvernes mais le phénomène est une variante particulière puisque le virus (tel que défini classiquement) nécessite un hôte et la machinerie du vivant. Dans les dizaines de milliards de combinaisons (on ne sait pas) qui ont pour source la force R. le rétrovirus à ARN n’est qu’un cas particulier qui a également besoin d’ADN pour se reproduire. Y-a-t-il une l’influence d’autres forces fondamentales proposées dans le modèle standard de description des phénomènes physiques observés dans l’univers ? Oui probablement, mais lesquelles ? La combinaison de ces gouvernes va conduire à une formation originelle d’un résultat qui sera une forme vivante qui s’adapte à son environnement et forme avec lui un écosystème plus ou moins durable. Cet écosystème est évolutif en fonction des rapports de domination des formes vivantes entre elles et des ressources de l’environnement qui participent à l’écosystème. Treizième postulat : tout système physico-chimique possédant de l’ADN est potentiellement soumis à la force R quel que soit l’environnement. Parenthèse : Les gouvernes et la santé. Si l’on accepte le corpus des gouvernes, il faut alors définitivement écarter le divin et la fatalité. La maladie a longtemps été considéré comme une malédiction et non comme le résultat d’un problème propre au vivant. L’évolution vers une conception moderne a été lente. Historiquement, la médecine limitait les causes des maladies aux humeurs ou aux déséquilibres de celle-ci. Cette conception était proche de celle du Yin et du Yang, une approche métaphysique asiatique qui s’appliquait à l’état de santé d’un humain. La période d’Hippocrate, mort en 377 avant l’ère commune, va marquer un tournant dans la vision de la santé humaine durant la période gréco romaine. C’est d’une part, l’approche clinique et la mise à l’écart du divin comme cause originelle de la pathologie. C’est aussi la reconnaissance du rôle de l’environnement dans la maladie. Il faudra encore des siècles pour que l’on puisse considérer que le fait religieux lié à la médecine humaine disparaisse à l’exception de la croyance résiliente de quelques minorités. Aujourd’hui, la vision de la santé est libérée du carcan théologique et philosophique. Fin de la parenthèse. Pour chaque gouverne, Il est possible de prévoir un impact qui interagit avec l’évolution du vivant. J’ai entendu mon grand père, qui n’était pas préoccupé par le champ gravitationnel, me dire de nombreuses fois qu’il fallait couper le bois à la lune descendante. Cet exemple peut être généralisé sans invoquer le surnaturel. Le champ gravitationnel et ses variations, les diverses sources d’énergie et de rayonnement, les variations de l’espace-temps, et tous les environnements physico chimiques d’une manière générale sont actifs et produisent des milliards de milliards de situations singulières depuis l’infiniment petit à l’infiniment grand. Certaines singularités ou cumul de singularités ont une capacité à modifier l’ordre issu du désordre et réciproquement. Quatorzième postulat : l’évolution du vivant est soumise à une succession d’organisation et désorganisation qui reconfigure sa relation avec les gouvernes universelles. Les progrès scientifiques peuvent-ils modifier cette approche ? Aujourd’hui, on considère de plus en plus l’infiniment petit et l’infiniment nombreux. Aux éléments microscopiques succèdent les éléments nanoscopiques comme indispensables à la compréhension du vivant. L’autre aspect est la prise en compte de l’infiniment nombreux. On considère l’impact d’une population en millions voire de milliards d’individus qui peuplent toute forme de vivant (virus, bactéries, structures cellulaires, …). Par exemple, on s’interroge sur le rôle des microtubules de quelques nanomètres qui tapissent les cellules ou celui des filaments. Elles permettent une communication intra cellulaire que l’on découvre. Même s’il existe des mécanismes régulateurs, on ne peut que s’émerveiller de la robustesse du système et se demander pourquoi il ne s’écroule pas comme un château de cartes. Compte tenu du nombre de cellules, on peut imaginer que l’erreur est permanente car il y a toujours une cellule qui prend la mauvaise route, celle qui agit sur la régulation du système et le transforme. La cause peut être un dérèglement interne ou un impact externe. Un système est globalement plus ou moins en tension permanente d’organisation et de désorganisation. On peut supposer que le danger de désorganisation augmente plus rapidement au cours de certaines phases comme les moments de croissance de l’organisme vivant. Qu’est-ce qui explique qu’un organisme soit plus fragile à certains moments de sa croissance ? Une plus grande exposition aux gouvernes et une plus grande réceptivité. Par exemple, l’énergie requise est plus dirigée vers la transformation cellulaire interne que vers la défense de l’organisme. On ne sait pas encore mesurer l’impact sur le système vivant dans le cadre des variations des gouvernes que nous décrivons. Par exemple, quelle est l’impact d’une variation du champ de gravité sur le processus de fécondation ? quel est l’impact d’une éruption solaire sur le système immunitaire ? De nombreuses altérations sont susceptibles de se produire. L’action de la pesanteur sur terre est indissociable de la gravité et de ses variations. C’est elle qui s’impose comme gouverne active dans les différentes mutations, mitoses, méioses, réplications et autres phénomènes qui surviennent dans l’évolution du vivant dès le stade de la reproduction. L’exigence topologique est que le champ gravitationnel cosmique doit être à l’identique pour reproduire à l’identique. Or ce champ est plus ou moins stable. La vraie question, est de savoir à quel niveau de modification il influence le phénomène de reproduction (et il peut y avoir des pics d’instabilité). Par exemple, un humain qui parcourt 10 km chaque jour n’est pas exposé au même statut sanitaire qu’un humain qui passe plus de 70% de son temps allongé et assis. Ce statut est différent pour des raisons purement gravitationnelles. Mais ce phénomène n’est pas mesuré sous cet angle. On évoque bien la station debout comme cause des varices mais les mesures de la relation avec la force gravitationnelle restent grossièrement explorées. La raison probable est que la pesanteur (combinaison du champ gravitationnelle et de l’effet de la rotation de la terre) varie assez peu sur la terre et que cette variation n’est donc pas un facteur déterminant dans le domaine médical. Il faut donc plutôt partir de la sensibilité individuelle à la pesanteur qui est variable d’un individu à l’autre et d’un sous groupe de vivant à l’autre. On dispose aujourd’hui de gravimètres qui permettent des mesures précises du champ de pesanteur. Si l’humain ne ressent pas la différence de pesanteur qui existe entre le sol du champ de mars et le dernier étage de la tour Eiffel, il est possible que cette différence ait un impact sur l’infiniment petit du vivant. C’est le cas des tubules que nous avons précédemment cité. On peut facilement imaginer que le processus de renouvellement des cellules dans un champ de gravité qui se modifie peut modifier la croissance de ces tubules. Actuellement, la recherche reste dans une relation cause-effet. La méthode expérimentale est toujours d’actualité. Elle peine à réaliser des expériences pour l’infiniment petit et cela constitue une barrière. Pour échapper à la contrainte de la gravité terrestre, l’exploration spatiale devrait apporter des éléments nouveaux. Il en est de même pour la gouverne énergie qui part du principe que tout vivant est une usine à capturer des joules, transformer, produire de l’énergie. Mais l’altération de l’absorption ou de la production d’énergie peut entraîner une altération des fonctions. Quant à l’espace-temps et la dimension temps en particulier, on imagine bien le nombre d’altérations lorsque le phénomène est soumis à une synchronisation temporelle qui ne se produit pas. Cela signifie, qu’un grand nombre de transformations sont le résultat de ces interactions permanentes avec les gouvernes et des altérations qui peuvent survenir tout au long du cycle de vie et indépendamment des actions néfastes de l’environnement de proximité (celui qu’on choisit – la nutrition par exemple) et celui qu’on subit (la pollution urbaine par exemple). Les recherches sur la résilience (ou robustesse) d’un système sont encore récentes et malgré l’apport des théories de l’information, et autres apports scientifiques récents, on peine à établir une vision partagée concernant le vivant. Au-delà du microscopique, l’avènement de la biologie quantique devrait également permettre de mieux comprendre certains processus. En 2020, Il n’est pas interdit de penser que le comportement corpusculaire et ondulatoire entre atomes et molécules de base du vivant va faire progresser la compréhension de l’évolution du vivant. Par exemple, la théorie de la décohérence indique que ce phénomène ne dépend pas uniquement d’un observateur mais de toute action externe au système. Bienvenue dans le monde de la génétique quantique… Si la gravitation quantique est encore au stade de la théorie et de sa vérification, on peut simplement imaginer qu’il peut exister des fluctuations quantiques cosmiques susceptibles de créer des altérations cellulaires et génomiques qui entraînent des transformations d’origine génétique. Il est logique de penser que tout phénomène ondulatoire et corpusculaire est loin d’être neutre et la question est alors de déterminer dans quelles conditions, le phénomène devient impactant. Pourquoi une théorie synthétique de l’évolution est scientifiquement acceptable ? Evolutionnisme, transformisme, fixisme, darwinisme, créationnisme, … . Ce sont des querelles que les scientifiques aiment à porter au niveau de débats sans fin (utiles et futiles à la fois). Il est sage de garder la sélection naturelle en la combinant au transformisme. La seule difficulté est de mieux comprendre le rôle de chaque processus. La théorie de la sélection naturelle est admise par la communauté scientifique car elle a une haute probabilité. La mutation génétique spontanée est également admise par la communauté scientifique car elle prouvée par l’analyse génétique. L’adaptation génétique à l’environnement le sera certainement car les indices s’accumulent (c’est le cas de la dérive génétique qui résulte d’une sélection naturelle basée sur la diversité génétique). On peut faire l’hypothèse que se forme un ARN messager singulier en réaction à un phénomène d’adaptation réactive. La sélection naturelle peut précéder ou prendre le relais ou intervenir en parallèle car les deux processus ne sont pas incompatibles. On peut également s’interroger sur le caractère spontané de la mutation. Il semble plus logique de faire intervenir une « altération », (certains diront une impureté, un bruit, un artefact), interne ou externe. Un méga ou micro-virus est l’une des nombreuses voies de l’altération. La question est de savoir comment se produit la réaction mutagène due à l’environnement et son intégration dans le génome. Actuellement, on a constaté des apprentissages temporaires sur des formes simples de vie dans le domaine végétal qui se transmettent. Le lien qui manque est le passage de l’organe mémoire de l’apprentissage à l’organe de reproduction. Actualisation 2020 : La science va plus vite que mes écrits. La découverte de la méthylation et son rôle reconnu dans la transformation épigénétique conforte l’hypothèse de ce que j’avais appelé en 2015 ajustement génétique systémique n’ayant pas de connaissances précises des processus. Elle relie l’environnement à la transformation observations sont relevées et constituent des indices de l’ADN héréditaire. La paramutation (une interaction épigénétique) aboutit également à un changement héréditaire du phénotype. Certains métazoaires (animal pluricellulaire) ont intégré dans leur patrimoine héréditaire des transformations liés au changement d’environnement de manière pérenne sur quelques générations. Les études épigénétiques plaident en faveur d’un néo-lamarckisme. Si l’expression des gènes paraît pouvoir jouer un rôle dans la transmission épigénétique comme cela a été démontré en 2019, Il reste à démontrer que « l’hérédité douce » peut aussi provenir d’un processus plus direct de sensibilité à l’environnement. Il n’est pas facile de démontrer qu’une mutation relève d’une transmission systémique d’adaptation à l’environnement dans le domaine d’humain. Restons prudents sur les indices qui vont dans ce sens. Ainsi, des scientifiques ont décrit une adaptation génétique de l'être humain à la plongée en profondeur, à savoir le développement exceptionnel de la rate du peuple Bajau en Indonésie (étude publiée en 2018). Toutefois, le processus qui a conduit à cette différence génétique inclus dans le patrimoine héréditaire n’est pas explicité. On ne sait donc pas, s’il s’agit d’une mutation aléatoire avec un processus de sélection naturelle par dérive génétique ou le résultat d’un échange génétique systémique transgénérationnel propre à une sous-population que l’on surnomme les "nomades de la mer". Ces indigènes pêchent en descendant jusqu'à 70 mètres de profondeur (la norme est plutôt entre 15 et 30 mètres pour un plongeur comme vous et moi) avec pour seuls équipements des poids et un masque rudimentaire. Ils passent jusqu'à 60% de leur journée de travail à plonger à la recherche de poissons, pieuvres et autres crustacés et peuvent passer jusqu'à treize minutes sous l'eau sans respirer (une durée similaire à celle des loutres de mer). Intriguée par de telles aptitudes, la scientifique américaine Melissa Ilardo s'est demandé s'ils avaient subi une modification génétique pour être en mesure de rester sous l'eau beaucoup plus longtemps que les autres humains. Elle a passé plusieurs mois en Indonésie auprès des Bajau et d'un autre peuple qui ne plonge pas, les Saluan. Elle a notamment prélevé des échantillons génétiques et effectué des échographies, qui ont montré que la rate des Bajau était environ 50% plus grosse que celle des Saluan. Cet organe est important en matière de plongée car il libère davantage d'oxygène dans le sang lorsque l'organisme est placé dans une situation de stress, comme lorsqu'une personne retient son souffle. La rate des Balau était plus grosse, qu'il s'agisse ou non de plongeurs, et une analyse ADN en a révélé la raison. En comparant le génome des Bajau à deux populations différentes, les Saluan et les Han chinois, les scientifiques ont trouvé 25 sites génomiques ayant d'importantes différences. L'une d'elles se trouvait sur le gène PDE10A, considéré comme déterminant dans la taille de la rate des Bajau. Il y a donc une différence génétique mais on ne peut pas en déduire qu’elle est liée à la pratique de la plongée en eau profonde. De même, on ne peut pas déterminer si cette différence génétique évolue encore vers une plus grande capacité par un phénomène de sélection naturelle par dérive génétique. On sait également que les Tibétains ont un génome différent, l’ Haplotypes Epas1.edi qui leur est spécifique et explique leur adaptation à la haute altitude. Il viendrait d’une population humaine de la branche des Denisoviens, il y a 20000 ans. Il s’agirait donc d’un phénomène de mutation spontanée et d’une adaptation naturelle qui aurait conduit les tibétains à occuper leur territoire en ayant un avantage. L’asymétrie fonctionnelle est-elle une autre caractéristique du vivant ? Le doublonnage de certains organes est un fait observé dans le monde végétal et animal. Notons que le doublonnage n’est pas systématique et que l’on n’a pas à ce jour d’explication sur ce phénomène. Pourquoi ne possède-t-on qu’un seul pancréas mais deux reins ? Nous observons cependant qu’il n’y a pas un doublonnage complètement à l’identique. C’est ce que l’on appellera l’asymétrie spatio-temporelle. Ainsi, fonctionnellement, les yeux ne sont pas identiques (œil directeur par exemple), les deux bras ne sont pas identiques (droitier), les deux parties du cerveau (émotionnel, rationnel), les oreilles (perception différente du son). Si l’on accepte le principe de l’asymétrie fonctionnelle comme un principe universel, C’est probablement aussi le cas pour les reins, les organes sexuels, les amygdales et les glandes d’une manière générale, etc. Quinzième postulat : le doublonnage d’un organe lorsqu’il se produit ne donne jamais un organe totalement identique à 100%. D’où viendrait, l’asymétrie organique ? L’univers étant en mouvement, l’asymétrie temporelle – qui fait que l’on ne peut avoir de doublons strictement identiques - peut s’expliquer par un décalage spatiotemporelle simple. Si l’on admet que l’organe se forme dans un environnement 4 D, on réalise la difficulté à ce que le résultat soit identique. Mais cela n’explique peut-être pas l’asymétrie fonctionnelle. On y réfléchit…. Une première idée est que tout organe dédoublé et ses appendices continuent à évoluer vers une spécialisation pré programmée après leur dédoublement initial. Quoi qu’il en soit, on n’a pas encore de réponse pour expliquer la logique du doublonnage partiel. Il est certain qu’un deuxième pancréas aurait été bien utile si l’on considère la gravité du cancer du pancréas. Comment expliquer l’empreinte identitaire de l’espèce ? Est-elle reliée à la défense immunitaire ? Le rejet de l’hôte non compatible participe à l’évolution du vivant. Le rejet des greffes a popularisé le concept. Il s’agit bien là d’un effet systémique action-réaction en réponse à la finalité supposée de protection . La fonction de défense immunitaire est aujourd’hui mieux décrite. Cette description scientifique est récente et bien après la pratique de la vaccination par Pasteur. Il est nécessaire de situer sa place dans l’évolution du vivant. La question est celle d’une identification réussie de l’agent étranger. On peut imaginer un processus simple d’exclusion de ce qui n’est pas « ami » ou un processus plus complexe. Cela suppose soit un répertoire pré enregistré, soit une évaluation de la compatibilité soit les deux. Le mot « ami » est bien entendu non approprié. Il faut entendre « supportable par le système ». Tout ce qui n’est pas supportable est rejeté. Une transition du supportable vers le non-supportable peut arriver et provoquer un dysfonctionnement du système. De même un rejet non contrôlé peut faire sortir le système de son contrôle réactif (comme on a pu le constater dans la pandémie de la COVID19). Comment le système fait le tri être ce qui est supportable et non supportable ? La fonction immunitaire est liée au processus d’empreinte identitaire (qu’il arrive en premier ou en second). Pour un grand nombre d’animaux, le marquage identitaire est d’ordre chimique a priori. Les exemples sont nombreux mais il peut également prendre des formes plus complexes. Ils concernent également les sous systèmes composites et on connaît bien les altérations de la santé lorsqu’un sous système ne reconnaît pas sa propre identité. (Maladies auto immunes). Seizième postulat : Tout individu vivant développe un jeu d’empreintes identitaires qui lui est propre en symbiose avec celles de son espèce. Ce postulat nous indique simplement une évidence que l’on traduit par l’empreinte génétique, l’empreinte identitaire de l’œil ou de la peau du doigt. La réalité est plus complexe car il y a une identité globale, une identité des sous systèmes du vivant, une identité cellulaire, etc. Un lien existe entre elles. La hiérarchie de ses identités, la manière dont elles provoquent des mécanismes de défense, de soumission et autres est mal connue. Notre postulat mérite d’être complété. L’évolution de la pensée scientifique et la prospective de l’évolution du vivant. La compréhension du vivant, c’est aussi s’interroger sur la pensée scientifique pour confronter ses propres convictions mais aussi ses propres déviances. Utiliser les termes de pensée scientifique, cela peut inclure des constructions d’hypothèses en fonction de théories encore en débat ou qui font des allers et retours. Par exemple, l’histoire de la structure de la lumière a ressemblé à une partie de tennis de table entre scientifiques pendant plus d’un siècle. Une telle construction théorique se base sur des connaissances observables souvent impossibles à reproduire car l’environnement a changé. L’observable comprend aussi bien la mauvaise perception que l’erreur d’interprétation. Mais la théorie permet d’ouvrir le cercle des questions ? Et, il est intéressant de se poser la question suivante : L’être humain 2020 est-il susceptible de s’adapter à son environnement futur ? Cette question at-elle du sens ? Quelles sont les évolutions générationnelles lentes qui peuvent amener une évolution génétique ? Quelles sont les ruptures systémiques qui pourraient provoquer un changement ? L’évolution de l’environnement s’étale sur plusieurs siècles mais y-a-t-il une plasticité phénotypique ? L’évolution de l’environnement a concerné de nombreux facteurs, par exemple : Le changement de l’alimentation au cours du dernier millénaire, le changement climatique, le changement cosmique, le changement démographique, le changement de notre écosystème, le changement de nos habitudes de travail sont des facteurs d’évolution très lente à l’échelle du cosmos. Les études épigénétiques longitudinales sont trop récentes pour permettre un résultat. La paléogénétique montre assez clairement que la répartition des sous espèces suit le mouvement climatique. La mise en évidence du processus biologique entre facteur environnemental et mutation génétique reste pour le moment spéculatif. La spéciation (création de nouvelles espèces) semble une évolution lente sur des milliers d’années. Et actuellement, on ne sait pas repérer la variation qui pourrait servir de marqueur à une évolution lente. Ce manque devrait être comblé au cours de ce siècle. La société fait partie de l’environnement. Comment la relier à l’évolution du vivant ? Si la socialisation est reliée au vivant végétal, animal ou humain, on peine aujourd’hui à relier une fonction organique précise à la socialisation. Celle-ci se manifeste par des modes associatifs en groupe. Ainsi la convivialité est une forme de socialisation mais il est difficile de la relier à un seul organe. Cette liaison se précise pour partie avec l’analyse du cerveau humain par les neurosciences. La liaison avec l’expression génétique est encore au stade de la recherche. Ce qui est certain, c’est que les facteurs d’environnement sont de plus en plus analysés dans leur conséquence sur l’expression génétique du végétal, de l’animal et de l’humain. Les avancées technologiques et scientifiques vont faire faire un bon en avant dans ce début du 21 ème siècle pour comprendre l’évolution du vivant. Peut-être, il serait plus sage que j’arrête d’écrire. Parenthèse : En 2020, une équipe scientifique a fait une étude sur les regroupements de requins marteau au cours d’une période de reproduction. Filmée en plongée sous-marine au large des Galapagos près de l’île Darwin J’ai été impressionné par les moyens développés. Un bateau scientifique de grande classe, un équipage en rapport, une équipe conséquente en nombre de scientifiques, etc. Je me suis posé la question : Est-ce que filmer la ronde d’un groupe de requins marteaux autour de quelques femelles justifie un tel déploiement de forces intellectuelles et de dépenses financières ? Bien évidemment, le reportage sera vendu aux chaines de télévision, bien évidemment, il y a un projet scientifique plus complet que j’ignore, bien évidemment, il y aura une publication scientifique pour qu’une petite pierre de la connaissance s’ajoute aux précédentes. Je continue cependant à m’interroger sur le choix apparent de l’observation comme démarche scientifique principale. Comment évaluer la valeur ajoutée de cette observation ? Comment dépasser le stade de la simple observation ? Pourquoi au moment où on construit un super collisionneur, on se contente de mettre une balise à un bébé requin marteau ? Fin de la parenthèse. Certains sujets d’études sont plus importants que d’autres pour comprendre l’évolution du vivant. Comment faire le tri ? Par exemple, la genèse de la fonction digestive complète de l’Homo n’est pas apparue dans sa forme actuelle soudainement. Comment établir les principes de cet aboutissement ? Faut-il se concentrer sur les micro-organismes qui ont développé des systèmes primaires d’absorption-transformation ? Comment les baleines à fanons ont-elles développé un système si particulier d’apport de nourriture ? beaucoup de questions sans réponse satisfaisante. Il y a encore du travail… Comment progresser ? Les théories anciennes doivent être intégrées dans une vision écosystémique pour permettre une compréhension de l’évolution du vivant. Il faut combiner l’indéterminisme et le déterminisme, la programmation et le hasard aléatoire, la complexité systémique et le hasard systémique. Parmi ces évolutions scientifiques, les outils technologiques sont aussi importants que les théories. N’oublions pas que c’est grâce aux outils que notre chemin scientifique se trace dans le maquis de la connaissance. De même, je pense que toute personne qui se déclare scientifique est influencée dans sa pensée par des modèles scientifiques. Il faut relier celui qui écrit à ses convictions. Moi, j’ai été sensible à certains d’entre eux. Les travaux de Ilya Prigogine et de René Thom . Je n’ai pas l’intention de faire un résumé de leurs travaux : la vision non déterministe de l’un, sa théorie des structures dissipatives, et la généralisation du phénomène probabiliste, une approche de la bifurcation comme non singulière mais ordinaire. Une vision plutôt déterministe et une approche mathématique rigoureuse de l’autre, de l’importance de la topologie algébrique et surtout de la bifurcation. La théorie des catastrophes, marque une conception paramétrable mathématiquement de l’évolution lente d’un phénomène continue qui débouche sur des variations soudaines ou sauts. Ces travaux sont particulièrement utiles pour comprendre le phénomène d’ordre et de désordre, d’autorégulation et de brisure systémique. En fait, leur position me paraît une querelle d’ego porté sur le plan philosophique mais qu’il importe de dépasser dans une vision plus large de la théorie des systèmes. Ludwig von Bertalanffy est probablement le troisième scientifique qui m’a le plus influencé. Ma conception du vivant s’en inspire. Pour moi, une prédiction de l’évolution du vivant ne peut se situer que dans une recherche systémique qui probabilise la tension environnementale et l’avènement d’une brisure systémique. Il paraît cependant impossible en cas de bifurcation systémique de déterminer lequel des scénarios va l’emporter parmi les milliers de scénarios compatibles. L’effet papillon et la théorie du chaos doit-elle être prise en compte dans l’évolution du vivant ? L’effet papillon (Lorentz, 1972) a fait couler beaucoup d’encre. Il est vrai qu’un simple battement d’aile d’un papillon au Brésil a peu de chances de provoquer une tornade au Texas mais cette métaphore montre que la route entre effet initial et effet final peut conduire à un différentiel extrême (minimal ou maximal) mais indéterminable. C’est que pose la théorie du chaos pour laquelle une différence initiale infime dans le processus déterministe d’une longue suite d’enchainements causes-effets ne peut aboutir à une situation déterminable. Cet enchainement peut être une bifurcation qui accélère le processus imprédictible ou bien une réduction de la désorganisation qui théoriquement conduit à plus d’organisation. Plus d’organisation, c’est une plus grande résilience du système mais également des évolutions brutales qui peuvent remettre en cause le système entier. La prise en compte de la théorie du chaos dans l’évolution du vivant peut conduire à l’idée qu’une infime variation de l’environnement ou de l’effet initial peut conduire à un effet considérable ou être noyé par les autres facteurs d’environnement. On peut imaginer qu’un écart de température au moment où l’oiseau couve son œuf conduit à un résultat différent. Ce n’est qu’admettre l’existence d’un déterminisme relatif et c’est ce que nous retiendrons. La physique quantique et l’évolution du vivant . Elle est venue au 20 ème siècle ébranler quelques certitudes comme le déterminisme. Bien qu’elle se situe au niveau de l’infiniment petit, elle rebat les cartes des lois de la physique. Il est encore difficile de faire la part des choses et il est difficile d’évaluer son impact sur le processus d’évolution du vivant. Peut-on créer un vivant artificiel ? Nous ne nous lancerons pas dans un scénario de science fiction mais nous ferons un constat : La manipulation génétique deviendra courante dans quelques décennies. L’histoire montre que la lutte contre les risques prévisibles mettant en jeu la santé fait l’objet de prévention. La vaccination ne dit pas autre chose. Elle intervient après la naissance. Elle est entre prévention et précaution. Elle va continuer à prendre des formes de manipulation génétique voire de création artificielle de virus sans effet nocif mais capable de déclencher une production d’anticorps. Par ailleurs, la naissance, l’interruption de grossesse est aujourd’hui acceptée dans la plupart des pays lorsque l’on a identifié un risque grave voire certain de malformation ou de handicap après la naissance. Dans un premier temps réparer l’organisme, au stade de l’embryon, par manipulation génétique fera débat au sein de la communauté humaine. Quel parent pourra voir venir un handicap connu si l’on sait comment l’éviter. Il s’agit ici de prévention. Cela suppose que l’on puisse identifier les maladies qui ont leur source certaine dans la configuration génétique des cellules embryonnaires. Par exemple, la trisomie 21 ou le diabète, dont le type 1 est le résultat d’une anomalie courante. Le principe de précaution fera également débat car sans encadrement éthique strict, la manipulation génétique peut déséquilibrer l’écosystème du vivant, même avec de bonnes intentions. Citons, par exemple, la manipulation génétique d’un chercheur chinois He Jianki en 2018 qui voulait éviter que l’enfant à naître puisse contracter le HIV d’un parent porteur. Ce dernier sera condamné, à juste titre, pour avoir agi en dehors du consensus et du contrôle communautaire. Il n’en reste pas moins qu’il avait individuellement franchi le pas de s’appuyer moralement sur le principe de précaution, la science permettant d’aller vers cette voie avec de grandes chances d’atteindre l’objectif. Quand ? et où ? Dans quel contexte ? Une pratique clandestine, une communauté légale dissidente ou pionnière suivant le point de vue de chacun, un facteur de risque déclencheur (épidémie virale sévère dans la population de nourrissons par exemple), sont les hypothèses les plus probables d’une ouverture éthique et médicale à cette manipulation génétique qui deviendra de la prévention génique. Ce sera avant le milieu du 21 ème siècle. Lutter contre la consanguinité et l’appauvrissement génétique peut également devenir un argument de la manipulation génétique. Ainsi, l’évaluation du nombre de personnes de profil génétique différent devant participer à une expatriation spatiale pour conserver une lignée saine de reproduction a déjà fait l’objet de calculs. Ils montrent que cette arche de Noé interstellaire devrait comporter plusieurs milliers de personnes. La création artificielle d’un être vivan t n’est plus un tabou pour bon nombre de généticiens. Craig Venter serait le premier à avoir créé (2008) une cellule vivante dotée d’un génome synthétique. Actualisation 2020 : Un pas a été franchi avec la création d’un génome synthétique capable de s’autorépliquer mais qui n’est pas encapsidé. On notera que le terme scientifique qui se généralise est « encapsulation », concept qui correspond à celui d’involution claustratique proposée en 2015. La création artificielle du vivant n’est pas sans poser un problème éthique de responsabilité sociétale. Elle indique cependant le vivant de demain sera de moins en moins naturel. 2 -ème partie : L’homo Sapiens et sa spécificité 57 Dans l’évolution du vivant, il est une singularité qui mérite une attention particulière « l’Homo Sapiens » qui est celui que je vois dans mon miroir. Qu’est-ce que l’espèce « Homo » ? Elle se caractérise par une évolution qui semble dépasser tout ce qui existait auparavant même s’il a fallu du temps pour que cette évolution particulière se confirme par rapport aux autres espèces vivantes. Comment la caractériser ? L’utilisation d’outils, est-il un marqueur de l’évolution de l’espèce homo ? Ce qui apparaît en premier c’est la capacité de l’homme à utiliser un outil pour répondre à un objectif. Cela relève aussi du comportement de certains animaux comme les singes ou les oiseaux. Pour casser la coquille d’un mollusque, d’une noix d’un œuf par exemple, ils vont utiliser une pierre. Toutefois, l’animal ne semble pas garder son outil après utilisation et en faire sa propriété qu’il conservera jalousement. De même, l’animal ne fabrique pas son outil, il le choisit même s’il peut le façonner au dernier moment. L’homo habilis (une espèce éteinte il y a plus d’un million d’années) est considéré comme le premier homme à fabriquer des outils dont des outils de pierre. Il peut être le résultat d’une évolution naturelle des hominidés. Il semble également que la position debout soit une évolution anatomique apparu au cours de cette période (homo erectus). Une autre évolution anatomique, il y a environ 1 million d’années est celle de la taille et de la configuration du cerveau. Elle pourrait (c’est encore une simple hypothèse) être dû à la domestication du feu (400000 ans) et à l’amélioration du régime alimentaire. La modification du volume du cerveau et par suite du nombre de neurones (ou de connexions entre eux pour certains) serait survenu à cette époque. Ce serait donc une évolution naturelle qui a conduit à un comportement que l’on pourra qualifier d’humain. Toutefois, le passage du comportement animal au comportement humain semble le fait de l’homme de Néandertal puis Sapiens. Elle est rapide à l’échelle de l’histoire du vivant. Quelques centaines de milliers d’année. La discussion reste ouverte sur cette évolution et les caractéristiques de l’homme de Néandertal. Doit-on considérer l’outil fabriqué (2 millions d’année), le rite funéraire (100000 ans) ou l’art pariétal (50000 ans) comme la manifestation de ce passage vers notre condition humaine. A quelle moment de l’humanité peut-on dire que l’Homo Sapiens devient l’espèce Homo que nous connaissons aujourd’hui ? Aussi intéressante que soit la question, le comment est la question que nous développerons dans cet essai. Curieusement c’est une partie d’un sous ensemble encapsulé, une partie du cerveau, le lobe frontal, qui apporte cette révolution. Les neurosciences progressent rapidement. Je dois donc rester modeste mais c’est une occupation intéressante d’anticiper ce qui pourrait être découvert. Parenthèse : Je ne suis pas un expert et j’ai un dilemme : la progression des publications scientifiques (numériques et imprimées) explose. Cela devient de plus en plus un souci car cette situation met en lumière un paradoxe. Soit, je consacre tout mon temps à lire ce qu’écrivent les experts et chercheurs dans les revues, soit je suis le fil de ma pensée et j’écris avec mon bagage intellectuel. Si je choisis la première solution, je n’ai pas le temps d’écrire un texte à la hauteur des experts, la deuxième, je ne profite pas des évolutions scientifiques et mon texte sera celui d’un piètre amateur. Et pour avoir une pensée riche, il est important de connaître les champs de recherche qui sont souvent nécessaires pour progresser. Je peux bien évidemment prendre mon temps mais les autres ont déjà un acquis et vont pouvoir faire des propositions scientifiquement prouvées avant moi. La numérisation a été un progrès exceptionnel notamment par l’accès libre à des articles de revues, des thèses ou encore des tutoriels. Il faut encourager et systématiser cette pratique. Moi aujourd’hui, je n’ai qu’Internet à ma disposition et il va falloir que je m’en contente. La situation est stimulante. Puis-je avoir un raisonnement qui me dispense de toute lecture spécialisée. Revenons à notre sujet. Fin de la parenthèse . On peine à comprendre le comment et le point de départ de cette évolution du vivant. L’apparition d’une nouvelle faculté de maîtrise de l’environnement se définit avec l’apparition de l’Homo Sapiens. Il est encore difficile de dater avec précision la période de divergence avec les primates évolués. On date difficilement la date de la première sépulture (100000 ans) qui marque semble-t-il l’expression d’un sentiment individuel, familial et/ou communautaire. De même, on date difficilement la période à laquelle l’homme a appliqué sa main sur la paroi d’une grotte pour en pocher la forme pour la première fois. C’était il y a moins de 30000 ans. Une période qui marque une prise de conscience du moi et une distanciation importante avec le vécu immédiat. Cette capacité cognitive s’est accompagnée d’un art figuratif spécifique à l’espèce humaine, l’art pariétal. Premier postulat : le culte des morts marque le premier éveil de la conscience existentielle qui caractérise l’Homo Sapiens. C’était, il y a environ 100000 ans. La tombe volontaire assorti d’un placement est un marqueur de l’épopée humaine. Est-il plus un signe de passage d’une sépulture à un rite funéraire et au culte des ancêtres, ou un rite de passage de la destinée dans l’au-delà ? Intuitivement, cette pratique nous semble également signifier une première angoisse existentielle qui va accompagner l’Homo Sapiens depuis cette époque. Elle vient s’ajouter au sentiment familial et /ou communautaire. L’angoisse existentielle, c’est la prise de conscience que l’individu se situe temporairement dans un espace et une temporalité qu’il ne domine pas. Cette prise de conscience s’accompagne d’un ressenti émotionnel, un vertige, une peur qui influence le comportement rationnel. Pour les psychologues, c’est une perte de repères, une perte du sens de la vie et de son but sur terre. Quel que soit l’angle de vision, l’angoisse existentielle a pour conséquence une réponse chez le Sapiens soit pour gérer celle-ci collectivement, soit pour sombrer dans la dépression et la folie. Le Sapiens a besoin plus ou moins intense d’une vie communautaire pour vivre. Ce besoin s’est exprimé dès qu’il a acquis une conscience de son moi. Cette conscience n’est pas intelligence. L’angoisse existentielle est une propriété spécifique à l’homo Sapiens. A partir du moment où le Sapiens prend conscience du moi, c’est un gouffre d’incertitudes qui s’ouvre à l’homme et une volonté de combler ce vide. Ainsi la main sur la paroi de la grotte est l’externalisation d’un phénomène qui relie l’acte (je projette une main sur la paroi) et sa lecture (c’est ma main). Cette relation est une première pierre de la conscience existentielle, celle d’une intériorisation de la main dans le cerveau. Cela fera que la main n’est plus nécessaire (dans le vécu immédiat) mais deviendra une image qui pourra se stocker et se projeter sur un écran interne de la mémoire du Sapiens. Cette main est rassurante car elle externalise le « moi » et angoissante justement parce qu’elle externalise le moi. Elle projette la conscience humaine dans l’espace et le temps. Deuxième postulat : la main négative ou positive sur la paroi de la caverne signe le premier processus de différenciation entre la l’animal et celle de l’homo Sapiens. Elle est un marqueur phénoménologique existentiel. Elle est une projection de son « moi » avant d’être un possible signe de communication. Instinctive ou non, cette main négative sur une paroi, est l’expression d’un nouveau processus cérébral stable. C’est une production signifiante qui sera stockée comme une image (un ensemble de pixels mémoriels). Ce sac pixellaire mémoriel propre à l’Homo Sapiens appartient à son système cérébral quelque part dans les 1500 cm3 de son volume. De la main au signe. L’externalisation de mon « moi » ? Le dessin de la main n’est pas une intentionnalité première mais le résultat d’un besoin. Ce besoin, c’est la naissance de la conscience qui tourmente (une souffrance au sens électro physico-chimique) le cerveau humain dans son besoin d’organiser les relations qu’il a avec ses pulsions, ses perceptions et ses rêves, un besoin d’ordre qui lui manque. La capacité de chacun à assumer cet état instable va conduire à se cacher les yeux pour ne pas voir et se mordre la langue de peur ou alors à accepter son asservissement aux esprits imaginaires. C’est un repli salutaire pour calmer sa peur. Certains iront jusqu’au sacrifice animal et humain pour calmer la colère des esprits. La main devient projection du moi et symbole miroir de son existence. Cette première étape change fondamentalement la vision de l’homme sur le monde. Une fois la main acquise comme une preuve existentielle, il peut alors se consacrer au désir (au vouloir) de s’approprier le monde extérieur. La main deviendra un symbole universel (comme la Hamsa) bien avant le monothéisme. Elle a de nombreuses significations (pouvoir, puissance, autorité royale, autorité spirituelle…). Le dessin animal devient également la première représentation du monde extérieur en raison de sa proximité et de sa relation de menace et de partage des lieux avec le Sapiens. Imaginez que vous êtes dans votre grotte et que votre survie dépend de votre capacité à tuer cet animal dangereux mais qui est aussi celui qui vous nourrit, vous procure vos outils, vous permet de garder votre corps au chaud, de produire des sons (instruments musicaux), de vous soigner l’âme et le corps, de faire vos sacrifices à vos génies en cas d’angoisse existentielle. Si la main de l’homme projetée sur la paroi de la caverne, marque un tournant. C’est parce que l’homme nouveau, à ce moment là, intègre son environnement dans son histoire passée et présente mais pas encore future. Il va vivre dans un déséquilibre entre ce qu’il croit comprendre du passé et ce qu’il ne peut comprendre de l’avenir. Pendant très longtemps l’homme vit sous la contrainte de la nature pour survivre – se nourrir, se protéger du froid, - de ses ennemis. Sa vision du futur reste limitée à celle de son espèce et de ses proches. L’immédiateté est la règle. Il commence à prendre en compte le futur avec le lever et le coucher des astres et avec la saisonnalité. La capacité à intégrer l’écoulement du temps (passé vers futur) dans son champ de conscience est probablement la clé d’un changement progressif. Si dans le même temps, il prend conscience de son existence (opposition du moi aux autres), il entre dans un comportement moderne qui crée un lien entre l’aspect rationnel et émotionnel. Est-ce que j’existe parce que j’ai conscience de l’écoulement du temps avant la vie et après la mort ou l’inverse ? Le doute de Descartes, le mal être de Sartre sont d’actualité autour du feu de camp dans la grotte qui réunit le chamane et sa communauté. L’humain trouve l’apaisement entre le discours incantatoire et la ritualisation en groupe. Le monde sans réponse à un « qui suis-je ? » devient intolérable lorsque la pression pour survivre me laisse du temps disponible pour penser. La conceptualisation primaire : C’est celle de la main que l’on regarde sur une paroi, c’est aussi celle du temps que l’on fige et que l’on peut voir à nouveau en se disant que cette main non seulement elle existe mais elle est à la fois le passé, le présent et le futur. La capture du temps n’est pas perçue comme une comme une perception du passé mais comme « la flèche du temps », ce qu’un animal ne peut pas faire. Cette perception de la dimension temps est liée à la conceptualisation primaire qui n’est pas intérieur mais résulte d’un échange avec l’environnement (même si c’est ma propre perception qui a construit celle-ci). Dans ce cadre, on sait que le cerveau travaille la nuit, produit des images et des liaisons de toute nature avec le corps et ses organes. Le rêve n’est pas propre à l’homme. Cependant, on ne sait pas actuellement si l’animal simplement projette des images stockées de manière émotionnelle et/ou combine ces images et transforme ces acquis. Le triptyque gagnant : Depuis que l’Homo Sapiens s’est rendu compte qu’il pouvait avoir « une conscience » de son environnement, la quasi-totalité des interrogations a porté sur cette inconnue qu’il a bien fallu appeler de différents noms tels que « psyché », conscience volontaire, boîte noire, … Au fil du temps, le passé, le présent et le futur se sont imposés comme des éléments à combiner. Bien qu’ils soient seulement au nombre de trois, ils ont alimenté de nombreuses hypothèses sur le sens des interactions et des dynamiques sous-jacentes. Personne ne remet en cause cette trilogie Passé, Présent et Futur. Non parce qu’elle existe réellement car elle peut être simplement le résultat d’une apparence, d’un échange entre observateur et observé mais parce qu’elle est pratique pour communiquer avec un vocabulaire qui repose sur un même univers commun lié à la « flèche du temps ». L’animal n’a pas cette conceptualisation du temps mais la dimension temps n’est pas absente de son système biologique ; il peut enterrer ses os en prévision d’un manque. Le rat, l’écureuil, font des provisions pour l’hiver et bien d’autres animaux (mais pas la fourmi du célèbre écrivain La Fontaine car la fourmi hiberne comme d’autres animaux). Il y a donc probablement dans le catalogue génétique, un système qui conduit à ces actions sans pour autant qu’il y ait « conceptualisation ». Troisième postulat : la conceptualisation et l’abstraction sont un processus d’idéation cérébrale, de conservation et de virtualisation de ce construit. L’homme moderne possède les mêmes fonctions sensorielles de base que les autres primates. Le test du miroir (il permet d’estimer la perception de soi) lui est plus spécifique même s’il est partagé par quelques autres espèces. Où se fait alors différence ? Une première piste est la capacité de conceptualisation au-delà du vécu immédiat, un deuxième est celle de l’ abstraction. On pourrait dire qu’une expression génétique particulière a conduit au développement d’un organe fonction spécifique propre au Sapiens. La taille du cerveau est l’un des critères de différenciation. Mais cela ne suffit pas à qualifier cette différence. Il nous faut donc aborder la question sous un angle phénoménologique propre à cet organe fonction. La mémoire – capacité à se souvenir du passé (garder et extraire) – joue un rôle et l’on commence à découvrir quelques processus physico chimiques explicatifs de la mémoire à court terme, le processus de stockage dans la mémoire à long terme, l’activation circonstanciel de souvenirs -images et leur reconfiguration. La différence entre l’Homo Sapiens et l’animal peut s’expliquer pour partie par la taille du cerveau et par une spécialisation différente des zones. Ce qui est imaginable, c’est l’existence d’un double circuit dont l’un est un système référent qui construit un système de mémoires l’une passive et l’autre dynamique auquel s’ajoute un système de mémoire créative, plus développé chez le Sapiens. Cette dernière anticipe et projette l’action dans le futur. Ce schéma reste spéculatif. Le mot mémoire n’est pas satisfaisant car il en existe de plusieurs types. Au minimum, il doit être entendu comme une capacité à stocker des éléments de représentation en attente d’utilisation (mémoire de long terme) ou en utilisation créatrice (mémoire active qui peut déboucher sur une action ou un projet transféré dans la mémoire à court terme). Notre cerveau est capable de confrontation par une lecture flottante à plusieurs niveaux d’entrées permettant de faire un lien entre passé, présent et futur. On commence à visualiser les millions de fils neuronaux mais on progresse peu dans la compréhension de l’activité qui relie tous ces fils. Il est probable que le cerveau tout entier fonctionne en permanence avec des niveaux variables d’activité. Le cerveau posséderait une neuroprotection active minimale au-delà de l’électroencéphalogramme plat observé dans le coma profond. Cela peut-il signifier qu’il y ait un mécanisme spécifique conservatoire ? Pourrait-il avoir un autre rôle dans le processus de dissociation présent -passé ? Comprendre comment on peut dissocier le présent et le passé est une première base de travail. Comprendre comment transformer le passé en un futur au présent est sans doute plus difficile. Cela n’est plus de la mémoire qui stocke le présent mais un stock que l’on peut manipuler pour créer un nouveau futur que l’on peut analyser à volonté au présent. Pour que cela fonctionne, il faut un minimum de trois fonctionnalités, la mémorisation (stockage et extraction), la conceptualisation (capacité cognitive) et le traitement analytique (capacité d’abstraction combinatoire). De l’imaginaire à la conceptualisation. Pour arriver à comprendre la différence entre l’homme et l’animal il faut distinguer de ce qui relève d’une évolution progressive du primate vers l’espèce Homo et de ce qui relève d’un saut structurel vers le Sapiens. En fait, le développement humain s’est réalisé à la fois par une double évolution progressive. Il y a une première évolution que l’on peut qualifier de lignée animale intégrant les premiers hominidés et une autre après le saut structurel vers le Sapiens résultat d’une possible mutation génétique organique. Cette seconde évolution est marquée par une maîtrise nouvelle de la communication interhumaine. Celle-ci dépasse l’apprentissage par imitation et permet un échange créatif qui développe les capacités cognitives de chaque individu. Il n’est pas absurde de penser (c’est une hypothèse généralement acceptée) qu’il y avait des hominidés au stade animal qui n’ont pas évolué et qui ont finalement disparu dans l’incapacité de s’adapter et d’autres qui se sont génétiquement croisés avec d’autres hominidés. La lignée actuelle dite Homo Sapiens, ou homme moderne, semble résulter d’une mutation génétique particulière. On peine encore à la déterminer dans le temps, dans sa localisation génomique et en amplitude. Elle pourrait être également la perte d’activation de certains gènes ou une combinaison comprenant pertes et mutations. C’est le contexte environnemental et social qui conditionnera la vitesse d’évolution de la sous espèce d’hominidés Sapiens. Cette évolution se fera plus ou moins vite suivant que le groupe social est limité et isolé ou qu’il est large et interactif. Il peut ainsi aboutir à former une société très élaborée (une civilisation) au fur et à mesure que le groupe grandit. Ce qui est donc important à déterminer c’est le phénomène qui s’est produit à la fois biologique et également l’évènement systémique qui mène à la « conscience » du moi dans l’espace-temps. La conscience du moi est par définition aussi la conscience des autres, car elle ne peut se définir sans échange systémique avec l’autre. Nous choisissons le mot espace-temps pour indiquer que cette propriété de l’esprit humain semble s’inscrire dans une dimension particulière qui donne une place importante à la temporalité. Il nous faut à ce stade préciser notre choix conceptuel pour comprendre la suite de notre proposition. La virtualisation cérébrale , c’est la capacité potentielle à traiter (sélectionner, arranger, hiérarchiser, combiner) l’ensemble des relations sensibles et construites intériorisées avec leurs représentations qu’il s’agisse d’images ou d’autres formes conventionnelles. Le processus cérébral a été considéré comme une « boite noire » décrite uniquement par des interactions, entrées et sorties. Heureusement, elle n’est plus tout à fait noire grâce aux neurosciences et elle n’est pas seulement qu’une boîte car il existerait une activité extra organique du cerveau en liaison avec des implantations neuronales dans d’autres organes. 66 Cependant, il est encore difficile de qualifier toute la différence du processus cérébral entre le Sapiens et l’animal. Comment fonctionne la virtualisation cérébrale ? Peut-il y avoir une conscience avec une mémoire orale ? Peut-il y avoir une conscience sans mémoire visuelle. ? La réponse n’est pas évidente. L’avantage de partir d’une boîte noire, c’est ne poser aucune contrainte. On va partir sur la base d’une mutation génétique imaginaire (c’est facile) qui aurait abouti à donner au cerveau et à ses organes associés une capacité de virtualisation dynamique comprenant : Un système d’enregistrement et de conservation dans le temps qui se situe à l’intérieur du vivant. Un système d’extraction des enregistrements partant des différentes mémoires. Un système de virtualisation permettant de créer des images multiples (l’écrit étant sous forme d’image). Elles peuvent former des représentations nouvelles construites par combinaison, réduction, extension, inversion. Une force qui permet de maîtriser l’écoulement du temps pour conserver les représentions en arrière plan. Actuellement, les types de mémoire (cinq, sept ou plus) font l’objet d’une littérature abondante. Elles sont décrites à travers ce qu’elles permettent mais pas encore dans leur mode de fonctionnement physio biologique. On se limite à une topographie qui localise des zones. Ce sui nous paraît plus important, c’est de découvrir comment se réalise la maîtrise l’enregistrement du temps par un jeu de différenciation des mémoires. Quid de la conceptualisation ? Dans mon annonce de ce blog, j’ai écrit « essayiste » alors cela justifie le présent propos. Le problème des mots est important pour décrire une émergence d’un concept qui existe avant que l’on puisse le signifier par des mots. On part de l’hypothèse que le concept est une structure résiliente qui se construit en plusieurs phases. Etape 1 une phase d’inception - qui se connecte à la structure d’expression et de consolidation mémorielle. Un troupeau de bisons est d’abord un incept. Il a été mémorisé dans ses caractéristiques d’animal spécifique, de nombre multiple et de vivre ensemble. Le lien qui ne s’est pas formé est purement celui d’un assemblage. « Ce guerrier est valeureux, il a du courage ». Le « courage de l’autre » est une perception et une interprétation qui associe une personne et un ensemble d’actes qui donneront un construit conservé comme tel. Le courage n’existait pas physiologiquement dans le cerveau du Sapiens. C’est un incept qui s’est construit collectivement de manière imparfaite. Collectivement car il résulte d’une communication interhumaine (peut être au cours des longues soirées au coin du feu) et de manière imparfaite parce que ce qu’il signifie est difficile à vocabulariser. On peut imaginer qu’il y ait de nombreux incepts du même type qui font l’objet d’un vocabulaire propre à un groupe. Etape 2 une phase d’encryption – C’est une phase d’encodage qui va établir l’utilisation de mots, de sons et d’expressions entre communicants. Le signifiant s’impose avant de pouvoir être exprimé comme un signifié partagé. Il le deviendra seulement progressivement par l’usage puis par la dictionnarisation. Par la suite l’ensemble pourra être modifié en fonction de l’interaction systémique et répétitive avec l’existant. Plus il y a répétition et plus il y a typicité, plus il y a consolidation et résilience à l’effacement dans la mémoire. Le conte dans ces différentes formes a participé à cette encryption et à sa consolidation dès le début de l’ère du Sapiens. C’est ce qui a permis à la tradition orale de franchir les siècles. Le support organique qui permet ce processus est propre à l’homo Sapiens semble se développer à partir de l’âge de 3-7 ans chez l’enfant ce qui ne se produit pas chez l’animal. L’encryption va conduire au concept lorsqu’un besoin de réponse est introduit. Le besoin de réponse est activé par l’émotion, la peur, le plaisir, …. Le concept rationalise la réponse, la réduit à une abstraction et la catégorise avec ses caractéristiques (un qualificatif, un verbe, …). Elle fait en sorte qu’il y ait une réponse durable. La mémoire entre en jeu. Elle permet d’anticiper un comportement. La mémoire, c’est un système global au même titre que les autres systèmes du vivant. Comment fonctionne la mémoire ? on peut imaginer différents processus comme celui là. Il n’est pas plus absurde qu’un autre. La mémoire ce sont des bulles, vésicules, sacs de stockage qui suivent un processus d’accumulation progressive. Dans les sacs des briques de mémoire dont la composition reste à définir (cluster de protéines, agrégation subatomique doté de propriétés électro magnétiques, …). Le processus d’activation de la mémoire se produit par un réchauffement ou une impulsion qui produit une agitation des briques. Un capteur de recherche va permettre de cloner les briques originelles sans les détruire et les transmettre. Le processus prend fin et le sac mémoriel est reprogrammé en mémoire immédiate avant de retourner dans les abimes de la mémoire. Le capteur de recherche peut fonctionner comme un attracteur physico chimique ou autre si l’on admet que chaque brique de mémoire a été codée. On peut également imaginer qu’il y a un mécanisme de circulation, profondeur vers émergence et réciproquement, comme pour les démangeaisons qui reviennent régulièrement. Les cycles chronobiologiques d’activation de la mémoire sont probablement nécessaires au maintien néguentropique du système. Pour la mémoire primaire, on peut imaginer des grappes de sac qui s’allongent autour d’un fil transmetteur. On peut également imaginer que le capteur de recherche est un flux de captation d’intensité variable qui va chercher l’information dans les sacs. Revenons à la réalité. Les neurosciences devraient rapidement permettre de connaître les éléments du système mémoriel. C’est plus maintenant une question d’outils que d’imagination. Le processus d’encryption s’exprime via des symboles figuratifs ou autres. L’abstraction donne lieu à des symboles qui pourront être reconnus par d’autres à travers des objets rituels ou dessins. Cela aboutira à l’écriture. Le rite participera à l’objectivation du concept. La couronne royale, le bouclier, l’écharpe, le totem sont des symboles qui objectivent le concept de royauté, de chef de clan, d’esprit supérieur, de territoire, de communauté. La parure est un concept qui accompagne le Sapiens. Ce concept associe l’objet rite (le signifié) et le symbole (le signifiant). Il s’objective par une mosaïque sur le mur ou un collier de pierres. Il peut avoir plusieurs fonctions dans les sociétés primitives comme dans les sociétés contemporaines : rang social, séduction, porte chance, protection contre le mauvais sort, garde valeur, … . L’objet rite est donc l’alpha de l’inception que l’on stocke dans un sac à mémoire que se range et peut s’activer. Il devient objet symbole lorsqu’il se charge d’un signifiant. Plusieurs objets symboles vont s’associer pour produire un concept d’autant plus abstrait que l’objet rite devient une partie secondaire. Le concept se forme également par combinaison de concepts primaires. Il peut ainsi devenir de plus en plus abstrait. Le concept de dissuasion nucléaire repose sur un calcul rationnel de deux ou plusieurs parties en conflit qui s’ils se déclenchait aboutirait à la destruction massive des parties prenantes par des armes nucléaires d’une puissance extrême. Bien qu’il soit très élaboré, il repose à la base sur un objet rite, l’arme défensive. La conceptualisation précède leur expression par des mots. La main sur le rocher, il y a 100000 ans, a précédé l’écriture, il y a 5000 ans. Cela fait long. La main n‘est pas un signe qui marque le début de l’écriture. L’écriture est un construit très progressif et utilitaire. La signalisation peut être une forme primitive d’écriture qui permet de signifier en l’absence de son auteur son existence dans l’espace et le temps. L’animal utilise souvent l’odeur qu’il dépose sous une forme diverse (l’urine, la crotte, …) comme source de marquage territorial. L’invention de l’écriture est une construction volontaire qui utilise des signes figuratifs et des symboles. Elle a permis à l’espèce humaine d’évoluer, d’échanger, de figer dans le temps des messages. Elle va également permettre de pérenniser ses savoirs, de les partager. Le Sapiens peut ainsi maîtriser de plus en plus rapidement son environnement à son profit. Plus le partage est ample, plus on favorise la naissance de civilisations. On connaît beaucoup mieux l’évolution de l’homo Sapiens depuis que sont apparues les premières écritures. La genèse de L’écriture. Il n’y a pas d’écriture sans langage oral c’est-à-dire sans une prononciation de sons signifiants. Le rôle du langage oral dans l’évolution du Sapiens nous paraît plus orienté d’abord vers une capacité collaborative entre humains. En pouvant émettre une grande diversité de sons il se formera un vocabulaire de base qui sera spécifique à chaque communauté. Le langage par signe ouvrira l’échange entre communautés qui se rencontrent. Le langage aura également un rôle de mémoire collective bien avant l’écriture. L’invention de l’écriture permettra au langage d’évoluer et d’acquérir des fonctionnalités nouvelles. On connaît des « dialectes animaux » identifiés, par exemple, chez les cétacés ou les rats glabres, Ils semblent associés à un apprentissage communautaire. Comme chez les humains, les dialectes peuvent varier en fonction des groupes communautaires. Le langage oral est aussi un mode de transmission inter générationnel qui précède l’écriture. Les contes de fée précèdent l’écriture comme de nombreuses légendes. Ainsi la belle et la bête aurait une origine qui remonte à plus de 4000 ans. Le diable et la mort sous toutes ses formes sont également présentes dans la tradition orale depuis que le Sapiens existe. C’est une forme de culture ancienne qui a la propriété d’être présente dans les premiers groupes humains. Le système de l’écriture (6000 ans selon les connaissances actuelles) commence par des images, alors que les légendes se transmettent de génération en générations par des chansons, des poèmes ou des contes quelque soit la culture. On chante l’origine du monde, on la fige dans la pierre ou dans la terre. La langue orale évolue mais la représentation est la même. Elle peut prendre une forme stylisée comme est interprété le vase retrouvé avant l’ère des pharaons. Mais cela suppose alors que l’on puisse transmettre la compréhension du dessin stylisé, son signifié. Par exemple, les pictogrammes harappéens de la vallée de l’Indus n’ont pas encore été déchiffrés. Le pictogramme dans la comptabilité est utilisé pour le commerce avec des chiffres primitifs. Le pictogramme se prononce avec un son. Il y a donc la possibilité de représenter un son par le pictogramme d’un objet. On peut ainsi utiliser la combinaison des sons pour signifier quelque chose. C’est le principe du rébus. Un même signe avec un son identique ou proche peut être confusant d’où l’idée d’ajouter un déterminant ou un classificateur. Le sens de l’écriture est variable gauche droite – droite gauche – haut bas… Elle traduit le fait qu’elle se développe dans des territoires différents. Ce système d’écriture s’est répandu de groupe en groupe avant l’invention de l’alphabet (en 150 avant l’ère commune). L’invention de l’alphabet est postérieure. Elle permet de réduire le nombre de signes. Si quelques centaines de signes graphiques suffisent pour une histoire simple, il en faut plusieurs milliers pour élaborer un récit riche en rebondissements. L’alphabet va drastiquement réduire à une trentaine de signes la communication graphique. Ce sont des sons et l’association de sons en bloc permet de faire des mots. C’est à la fois un progrès mais également la source d’un nouveau besoin, celui d’apprendre à prononcer le signe et le mot alors que le pictogramme original peut directement se prononcer dans la langue de celui qui voit le signe. Mais il était devenu difficile de se rappeler tous les pictogrammes et même un scribe y perdait son pictogramme. L’alphabet va se déformer et l’image du taureau deviendra un A dans l’alphabet romain, le signe de l’eau devient M., la tête devient R, etc… En écrivant, on a besoin de relier les lettres et de séparer les mots puis les phrases. L’écriture est liée à un autre besoin, celui d’un partage car au-delà du pictogramme, il faut pouvoir produire le son, connaître le classificateur et puis si l’on veut conserver et faire savoir, il faut un support de conservation et pouvoir le transporter. Il faut également que l’écriture se fasse rapidement. Par la suite, on observe la relation entre éducation, art et la diffusion de textes jusqu’à l’invention de l’imprimerie. Les premiers pictogrammes semblent être seulement associés à un rituel d’accompagnement de la vie de morts (pharaons pour les Égyptiens). Cela signifie que la transmission écrite (difficile si l’on doit graver la pierre) et le partage de cet écrit n’apparaît pas comme une nécessité première. Cela semble également tout au long du moyen-âge où le parchemin (un savoir faire réservé et une production limitée) se substitue au papyrus. Seule la bible semble digne d’intérêt comme support de diffusion de la pensée (religieuse bien évidemment). Cela à l’exception de la prérogative de l’administration royale pour administrer le royaume ou signer des traités et de quelques notables dans le commerce. La culture ne se diffuse plus durant cette période tout comme la période qui a précédé l’invention de l’écriture. On comprend alors que la culture était l’affaire d’une petite communauté détenteur d’un savoir hérité de l’antiquité (les jésuites en particulier). Avant l’écriture, les groupements humains avaient leur propre langue et leur communication s’accordait sur le son en rapport avec des signes et des objets. C’est la communication orale qui soudait les groupes. On peut supposer que le groupe inventait des mots et qu’il déformait les mots d’origine. Cela aboutissait à un patois local. On peut supposer qu’il n’était pas possible d’écrire (difficile d’emporter les pierres) durant la période nomade où la chasse et la cueillette dominait et qu’il n’était pas nécessaire d’écrire durant la période de sédentarisation car la transmission du savoir était essentiellement manuelle en dehors des réunions rituelles ou d’administration. La sédentarisation se situe à la période néolithique et coïnciderait l’invention de l’écriture seulement quelques centaines d’années avant l’époque des pharaons. Par ailleurs avant cette période, le développement de la langue ne devait pas être complexe et un millier de mots était suffisant. Dans les rencontres entre groupes de patois différents, l’accès la langue orale par le traducteur ne devait pas être un obstacle. Comment expliquez que durant la période nomade, l’écriture ne se développe pas, ne serait-ce que pour transmettre les légendes et les contes ? Est-ce par ce que le concept de culture n’était pas né ? Alors pourquoi ce concept est-il né avec la civilisation grecque ou de la même époque ? Est-ce un détournement de l’invention de l’alphabet qui était d’abord pragmatique ? Avant la civilisation grecque, la civilisation de la vallée de l’Indus semble également une période de développement important mais il n’est pas fait état d’un développement important de l’écriture. Pourquoi ? l’absence de support est-elle l’explication ? Aujourd’hui on observe à la fois la réinvention des pictogrammes universels comme les pictogrammes émotionnels que sont les émoji d’origine japonaise ou les pictogrammes utiles comme les signaux routiers. Il apparaît difficile de transmettre un concept à travers le pictogramme. Transmettre un concept nécessite une combinaison de plusieurs sous concepts qui réunissent de nombreux idées et mots descriptifs d’un objet, d’une action, d’un sentiment. Si la langue orale permet la création du concept, elle en rend difficile la transmission car il faudrait beaucoup de mots or la lecture est lente. Le concept de gastronomie est simple mais il faut une périphrase pour l’expliquer comme « l’art de créer un moment de plaisir des sens du goût et de la vue par la présentation et la confection d’un repas composé de mets et boissons ». C’est donc un agrégat mémoriel qui combine des classes d’objet (mets, boissons, …), des perceptions (l’odorat, le goût, la vue.), des actions (préparer, confectionner, manger plusieurs plats (repas), etc. Le mot repas lui-même est un agrégat de significations. Pour certains, le concept est une idée abstraite que l’on exprime verbalement. Par exemple la vérité est un concept. C’est également un agrégat mémoriel qui combine toute proposition exprimée que l’on définit comme conforme à la réalité ce qui suppose de définir ce qu’est la conformité et la réalité. Là encore le langage est nécessaire pour préciser ce que l’on considère comme conformité et réalité. On peut imaginer que l’écriture alphabétique va permettre une explosion de mots et de concepts qui vont s’affiner pour créer une cohérence linguistique de signifiants et de signifiés. Ce que l’on constate, c’est que le langage oral comme écrit suit la mondialisation, un espace territorial qui couvre l’ensemble du monde. L’adoption de l’alphabet-son s’étend ; l’anglais dans une forme grammaticale simplifiée s’étend ; les symboles mathématiques progressent vers une définition commune. Quelque 5000 ans plus tard, l’intelligence artificielle (IA), vient s’ajouter à l’écriture comme facteur d’évolution. ; c’est la capacité à une communication plus riche et à reculer la barrière de la grammaire, de l’orthographe et des langues étrangères. Les traducteurs automatiques sur des téléphones portables permettent déjà des échanges entre plusieurs personnes qui n’ont pas les mêmes langues naturelles d’origine. L’IA accélère le savoir. Elle raccourcit le temps d’accès au champ de connaissance. Le moteur de recherche va modifier en profondeur le système éducatif. C’est une nouvelle étape du Sapiens qui s’annonce. Le professeur de lettres a succédé à l’ancêtre, l’outil numérique va succéder au professeur. 74 Si l’écriture vient radicalement modifier l’évolution du Sapiens, il est également important de souligner combien l’échange s’est imposé dans la relation entre hommes modernes. Tout comme l’écriture a structuré l’histoire de l’humain, l’échange a conduit au dénombrement et au commerce. On admet qu’il a une économie comportementale chez les primates qui est une forme primitive du don et de l’échange. Ce qui nous paraît important chez le Sapiens, c’est une capacité au dénombrement. On peut décrire le comportement d’échange comme la conscience d’un troc dans l’intérêt des parties. On sait que de tels échanges conduisent à la notion de monnaie d’échange et plus généralement au commerce comme l’une des gouvernes de l’évolution humaine. Mais comment expliquer la capacité de dénombrement ? c’est-à-dire à reconnaitre et conceptualiser une collection d’items afin de lui attribuer un signifiant. Elle serait une capacité organique d’un coin du cerveau et se développerait être 3 et 7 ans. C’est une spécificité universelle du Sapiens. Même sans dénommer ce que les scientifiques appellent le cardinal, le nombre qui qualifie l’ensemble d’items, Il va permettre une relation compréhensive de l’échange élaborée contrairement à l’animal. L’enfant que j’étais comptait ses billes à la fin de la journée. Celles que j’avais gagné et celles que j’avais perdu. Et si j’avais plus de billes, je pouvais alors échanger deux billes contre un calot. C’était une amorce de troc. Mais pour pouvoir jouer avec les copains, je pouvais également acheter des billes si j’en avais trop perdu. J’utilisais alors les sous que ma mère m’avait donné. Le troc n’a probablement pas précédé la monnaie car les deux processus relèvent des mêmes principes de développement organique. Quatrième postulat : la capacité de dénombrement accompagne l’évolution du Sapiens dès son apparition sur terre. Il est probable que cette capacité de dénombrement est antérieure à l’élaboration de l’écriture. Elle va conduire à une forme primitive de comptabilité qui se modernisera au cours des échanges commerciaux. Associé à la conceptualisation et à l’abstraction, la capacité de dénombrement débouchera sur les développements mathématiques que l’on connaît. Le commerce et sa mondialisation n’aurait pas eu lieu sans cette capacité organique de l’Homo Sapiens. Il faut cependant comprendre comment peuvent se former des mécanismes plus complexes et relier mon envie d’échanger mes 3 billes ou mes deux agates contre un calot à cette usine organique qu’est le cerveau. Pour cela, il faut traduire les mots que j’écris en langage biologique. Alors comment écrit-on en langage biologique « deux agates contre un calot, je suis d’accord ». On pense connaître la zone mais pas encore le processus électro biologique ou autre qui me dit que trois billes est égal à deux agates ou à un calot. Si je fais cette transaction, j’ai conscience de faire un échange équilibré. Avoir conscience, qu’est-ce que cela veut dire ? La conscience, est-elle une simple facilité de langage pour exprimer la différence entre l’animal et l’homme ? Ce mot revient souvent quand on se réfère au Sapiens et il est donc indispensable de clarifier ce concept. La « conscience » c’est l’ouverture de la boîte de Pandore des définitions. Bien évidemment aucune ne peut convenir. La conscience a été défini comme un état. Mais dire que l’homme prend conscience nous fait entrer dans un débat métaphysique. La réponse sera alors Aristotélicienne, Cartésienne, Kantienne ou Sartrienne. Il ne faut pas confondre la réponse philosophique métaphysique et la réponse anatomique et physiologique. Ainsi pour Aristote, le cerveau n’était qu’un centre de régulation thermique. Pour plusieurs présocratiques, le cerveau était le siège des fonctions psychiques. D’autres penseurs situaient les fonctions psychiques ailleurs, dans le sang par exemple. Ce qui nous intéresse, c’est d’imaginer ce qui se passe au niveau de l’évolution humaine. Si l’on admet le principe d’un jeu entre une interrogation vécue émotionnellement et un besoin de compréhension rationnelle, la réponse métaphysique pourra alors se situer dans la conception Aristotélicienne qui vise à dépasser le mon sensible pour trouver les causes premières et les causes des causes premières. Mais on pourra également se situer au niveau de la réponse Sartrienne qui dramatise l’angoisse existentielle du moi. La réponse métaphysique apporté l’homme moderne peut se voir dans une réponse purement comportementaliste qui privilégie le rituel au raisonnement, dans le refuge de la religion qui substitue l’interrogation du vide existentielle à une invention abstraite de Dieu le père, ou encore dans une réponse positiviste de déni de l’interrogation. L’angoisse existentielle peut également conduire à préférer un asservissement à l’ordre et à l’obéissance si cette dernière s’avère nourricière et protectrice. La religion en créant un cadre collectif rassurant qui délègue au « créateur » ses propres angoisses existentielles va mettre de la distance avec ce gouffre qui donne le vertige. Le monastère offre un repli communautaire qui permet un apaisement psychologique. L’église, le lieu de culte, soulage cette angoisse. Si on veut échapper au confort théologique, on bascule alors soit vers un relativisme difficile à supporter, une recherche du Nirvana (un mythe de Sisyphe à la manière bouddhiste), un épicurisme insatiable, ou un enfermement dans une philosophie comportementaliste du toujours plus actif qui se substitue à sa propre conscience. Le jeu, la passion, l’addiction en sont des exemples. L’homo Sapiens a découvert cette angoisse existentielle et va l’exprimer avec la question de la mort et de sa signification. La faculté d’anticipation, de projection du passé dans l’avenir, de l’imaginaire avec ses monstres et ses peurs est associée au ressenti de cette angoisse, au besoin de croyance, mais aussi au suicide existentiel. Une question qui est posée par Albert Camus dans sa réflexion sur l’absurdité. Il y répond par la révolte, seule issue au non-sens de la vie. Parenthèse : Albert Camus a bien posé le problème de la conscience dans ses romans. Lorsque la conscience s’éveille dans l’humanité, elle conduit à la soumission à des croyances puis à Dieu, à une vie platonique, ou à une vie de révolte absurde contre l’absurdité. C’est ce besoin de rationalisation, de mise en ordre du monde qui est comme une punition sans fin, un rocher de Sisyphe. C’est aussi la source de la différence entre l’animal et l’homme qui peut s’expliquer physiologiquement comme un Yin et Yang qui tourne sur lui-même pour atteindre un niveau supérieur de maîtrise des sens et des connaissances. Ce que dit Camus n’est pas le résultat d’un dysfonctionnement mais la conséquence d’un système organique et d’une souffrance philosophique. Celle-ci remet en cause l’état stable du système organique en intégrant des données nouvelles qui le déséquilibre. L’homme court après son équilibre par divers moyens : l’apprentissage, l’expérimentation, l’habituation, la soumission, l’anticipation, l’amour et la haine. Cette recherche façonne à court et long terme la conscience humaine. La conscience englobe de nombreux domaines comme la morale, la spiritualité, la représentation mentale, etc. Elle ne se limite pas à l’immédiat mais peut se former dans une projection sur le futur. Il y a un Etat de conscience toujours active avec plusieurs niveaux en éveil, en veille, endormi, indécelable ou bien qui s’emballe dans une suractivation où surgit une instabilité pouvant conduire au suicide. Fin de la parenthèse. La conscience a-t-elle un support physiologique ? oui, si l’on considère qu’elle est la manifestation d’un système qui relie la perception sensorielle, les circuits neuronaux, sympathiques et neurovégétatifs et les mémoires. Cela fait beaucoup mais la conscience n’est qu’une succession continue d’états susceptibles de déclencher des réponses diverses aussi bien psychologiques que physiologiques. La conscience peut transformer les éléments qui l’ont produit. Lorsque le Sapiens réagit à un évènement, il peut être amené, s’il cherche à atteindre un objectif, à la question : comment ? et s’il veut créer un système de compréhension de son état de conscience, à la question pourquoi ? C’est vers 7 ans que l’enfant donne un sens à son dessin et entre dans le domaine du comment et du pourquoi. On peut toujours imaginer un processus biologique du comment et un processus biologique du pourquoi. Il semble logique de chercher le processus dans la combinaison électro-biochimique d’activation des circuits du cerveau et de ses organes associés. La clarification est proche et va se faire dans les prochaines années. Conscience et intelligence. On a pu mettre en évidence l’existence d’une forme d’intelligence générale chez les animaux, c’est-à-dire une capacité à combiner des informations variées pour atteindre un but, Cela s’accompagne d’une habileté cognitive (comme un ordonnancement logique), d’une faculté d’apprentissage (capacité à un réagencement neuronal) et d’imitation (capacité à faire comme l’autre). L’intelligence humaine est difficile à caractériser et à mesurer car le concept lui-même fait débat. L’intelligence est plus un combo ou un patchwork et c’est ce qui explique le débat scientifique. C’est d’ailleurs un débat qui englobe également la définition de l’Homo Sapiens. Nous y reviendrons… plus tard. Le cerveau de l’Homo Sapiens, une autre spécificité. On découvre avec beaucoup de difficulté le mode de fonctionnement de l’organe principal – le cerveau- qui permet cette capacité cognitive et différencie l’homme de l’animal. Il n’est pas rare que l’on se réfère encore à la taille et aux volumes du cerveau. Cela paraît très insuffisant. Parenthèse : La prise en compte du cerveau sous un angle scientifique est une évolution tardive par rapport à l’effort scientifique du siècle des lumières. Les philosophes grecques et romains vont difficilement aller au-delà de conjectures invérifiables. Aristote ne reconnaissait pas le cerveau comme un organe essentiel. Une partie des philosophes grecques reliaient le cerveau à un réceptacle d’air et donnait à cette combinaison des vertus diverses (comme l’expression d’un souffle vital). Hippocrate donnait un rôle au cerveau à travers ce qu’il appelait « psychè ». Platon également reconnaissait que le cerveau était relié à l’âme mais sans établir un descriptif précis. Galien participe à cette connaissance. Leonard de Vinci, Descartes et bien d’autres survoleront ce thème de connaissances noyés dans un obscurantisme moyenâgeux. La méthode expérimentale reste discrète et Claude Bernard lui- même peine à ouvrir une voie nouvelle ; En1872, il écrit « De tout ce qui précède, je tirerai la seule conclusion légitime qui en découle : c’est que le mécanisme de la pensée nous est inconnu, … ». Nous le connaissons encore aujourd’hui de manière très insuffisante, mais découvrons tous les jours des éléments propres au psychisme animal et humain que nous relions à des structures mentales. Ce sont des schémas explicatifs de nos comportements que l’on va relier à nos structures organiques (dont une grande partie se situe dans les différentes zones de notre cerveau). Nous relions les archétypes, les pulsions ou autres forces qui accompagnent l’être vivant. Nous relions le vivant « socialisé » et le vivant « biologique », nous n’opposons pas le vivant expression d’un système ouvert (avec un libre arbitre) et le vivant d’un système fermé (automate). Les neuro sciences nous permettent d’entrevoir ces mécanismes de liaison mais elles ne sont pas encore en mesure de faire le lien entre nos représentations, leurs significations, et leur structures organiques correspondantes. On ne sait pas traduire le concept de « troupeau de bisons » en « structure organique ». C’est peut-être une combinaison de pentaquarks encapsulés dans un bain de gluons… Ce n’est qu’à la fin du 20 ème siècle que les neurosciences cognitives ouvrent un nouveau chapitre. En dehors de toute empreinte métaphysique et avec des nouvelles technologies, cette approche devrait permettre au cours de ce siècle de mettre à jour les caractéristiques singulières du cerveau du Sapiens par rapport à celui de l’animal. Fin de la parenthèse. 77 Comment le cerveau organise l’échange systémique avec l’environnement ? l’échange est une clé de compréhension de l’évolution du vivant et de l’homo Sapiens. Il entre dans le processus de comptage, de valorisation et d’écriture. Il nécessite un stade primaire de l’abstraction qui sera un pilier de l’évolution culturelle. Il va évoluer chez l’enfant dès que celui-ci va inclure dans le jeu, l’échange et le comptage. A quel âge commence la compétition et l’envie de collectionner ? 5-7 ans ? Cette capacité d’abstraction est une étape qui ouvre la voie à l’ensemble du système de conceptualisation. Le troc négocié est la forme primaire de cette différence entre l’homme et l’animal. Il nécessite une valorisation et un comptage. Il préfigure les civilisations antiques. On n’a pas besoin d’être un grand économiste pour comprendre que la valeur d’échange est une expérience quotidienne pour l’enfant qui souhaite échanger un calot contre trois billes ou deux agates. Sa valeur d’usage dépendra de son addiction au jeu ou de son talent à gagner des billes. Au-delà du troc, pourra avoir une conscience de la valeur monétaire de son butin et découvrir que s’il vend son butin, il pourra acquérir d’autres biens. Dans un groupe d’écoliers, il pourra se créer un collectif qui va créer une monnaie propre au groupe comme des coquillages peints en rouge écarlate, une facilité pour échanger. On entre dans le domaine de l’abstraction, une capacité organique spécifique qui permet d’intégrer des comparatifs de valeur et de quantité. On entre dans le besoin de comptage et sa représentation par des signes. On entre également dans une première logique d’anticipation et de logique conditionnelle. Si j’obtiens plus de billes que mes camarades, je pourrais …. Mais j’augmenterais encore mon pouvoir si je conçois mon portefeuille de billes en …. Il y a donc une « usine cérébrale » qui combine tous ces éléments pour produire une solution qui aura été imaginée et sera retenue. On peut imaginer que cette capacité existe de manière originelle mais qu’elle se développe avec le langage et régresse en l’absence de langage ou qu’elle est spécifique à l’homo Sapiens. Le comptage et la conscience d’un rapport être le plus et le moins va engendrer une conscience plus large lorsqu’elle est couplée à conscience de force collective, le nous et les autres. L’évolution de la connaissance va continuer avec une symbiose entre une conscience de l’infiniment petit et de l’infiniment grand qui s’établit plus rapidement que les outils qui permettent de décrire ces deux mondes. En retard, la conscience remplit le vide par de l’imaginaire. Les instruments permettent une avance de la connaissance et leur création dépend en partie des capacités d’abstraction de calcul dont l’évolution est lente. La technologie permet un bond en avant mais l’abstraction connaît une évolution moins rapide. L’apprentissage du Sapiens s’est déplacé de la famille à la communauté au fil du temps. Il a gagné en productivité et en performance en se spécialisant. Il s’est démocratisé. Mais ce processus va encore plus loin avec la capacité créative du Sapiens. Le vivant étant dans un environnement dynamique, il est amené à se transformer à chaque fois qu’il réagit. Il utilise ses ressources pour adapter sa réponse et conserver le résultat de sa réponse dans sa mémoire. Même si son but peut être de garder son état initial, il aura appris Par rapport à l’animal, l’Homo aurait plus de capacité à se souvenir et à faire jouer son système d’anticipation. Cependant des animaux marins sont souvent cités pour avoir les mêmes capacités. Il faut donc rester prudent sur cette affirmation. Comme l’animal, il peut ressentir une impasse adaptative et paniquer. Il peut aussi faire face à des dilemmes psychologiques. Plus que l’animal, parce que son registre d’expériences est plus étendu, il peut connaître des dysfonctionnements. Enfin, sa propension à chercher des solutions créatrices peut l’amener à se confronter à ses construits sociaux (champs permissifs et interdits de toute nature qu’il a intégré depuis qu’il est né). Quand est apparue cette spécificité ? Ce que l’on sait, c’est que l’anatomie du cerveau humain a gagné en volume depuis l’évolution primitive de la lignée humaine. Mais cela ne semble pas suffisant pour comprendre la différence avec l’animal si l’on n’ajoute pas le processus créatif et la capacité d’abstraction. Le processus créatif : C’est une capacité spécifique au Sapiens. Elle s’apparente à une fonction naturelle de vouloir le désordre (une désorganisation) et pas seulement l’ordre (une organisation). La création n’étant que l’expression résiliente de cette désorganisation et sa maîtrise au fur et à mesure que s’adapte le Sapiens à son environnement. Le dessin de l’enfant est un gribouillage avant 3 ans. Il n’est pas encore un construit mais il préexiste génétiquement. Il apparaît comme une activité simplement proactive sans recherche d’un résultat. Il aura par la suite une activité plus élaborée qu’il va relier à quelque chose – objet, animal, être humain - Question : est-ce qu’un enfant loup pourrait faire un dessin de lui-même en occultant la question d’habileté. Non, le dessin est donc une activité acquise socialement. Oui le gribouillage est inné (dans les gènes) et le dessin est un construit qui succède au gribouillage avec plus ou moins de bonheur suivant la prise de conscience du moi et la socialisation qui l’accompagne. Cinquième Postulat : Le processus créatif du Sapiens est lié à la reconnaissance du moi et nécessaire à son évolution. On peut également admettre que l’expression d’un son par la gorge de l’humain est innée (capacité anatomique) au moment de la naissance et qu’il apprend à l’écoute la structure orale du langage. Sa capacité à évoluer est plus liée à sa socialisation qu’à une structure hypothétique préexistante du langage d’ordre génétique. Par contre, il peut être génétiquement poussé à élargir ses vocalises (caractère inné). L’abstraction : Elle est une instrumentalisation de la main pariétale. A partir du moment où je peux attribuer à la main le rôle instrumental de mon échange avec moi-même, je peux projeter virtuellement ma main dans mon cerveau et continuer mon échange. J’ai acquis cette capacité à transformer cette main suivant ma volonté ; Je peux la colorer, en faire une grande main ou une petite main dans mon cerveau sans devoir la dessiner à chaque fois. Je peux également la symboliser sans qu’elle apparaisse comme une main. C’est un processus d’abstraction, le produit de ma relation avec un élément de mon moi, qui débouche sur la construction symbolique d’une forme abstraite. Ayant cette expérience et ce savoir faire, je vais poursuivre cet exercice qui me distingue de l’animal. La mémoire visuelle propre au Sapiens permet la conservation d’un symbole. Le processus créatif lui, permet la production d’un symbole, premier élément du langage écrit. Je peux écrire ce symbole à ma manière ou suivre celle de mon groupe d’appartenance (classé D46 à D48 dans la liste des hiéroglyphes de Gardener par exemple). Je peux également utiliser ce symbole pour délivrer un message (ainsi la main de justice est un sceptre surmonté d’une main à trois doigts qui traduisait le pouvoir royal). Il manque encore un chainon descriptif pour que puisse être compris l’éveil de la conscience du moi dans une dynamique passé -présent-futur. Quelques éléments de réponse ont été apportés en ce qui concerne le langage avec le behaviorisme de Skinner et les théories comportementalistes, puis la vision de Chomsky et les théories cognitives. Le repérage de l’aire de Broca semble confirmer le rôle du cerveau dans le système de langage à base générative. L’abstraction passe par le langage – symbole mais reste encore un processus à explorer. Sa définition même est ambigüe et demande à être commentée. Plus tard… Parenthèse : La doudou de Sandra – sep 81 – Sandra a 2 ans, en voyage professionnel de longue durée aux USA, Sandra fréquente la crèche pendant que sa sœur est à l’Ecole - Elle ne veut plus quitter sa doudou de la journée et pleure plus que les autres enfants– elle mâchouille sa doudou – un simple linge blanc- et la mouille heure après heure. Elle ne joue pas beaucoup avec les autres enfants et se réfugie dans les bras de l’assistante maternelle qui s’occupe des enfants – Cette situation de repli me préoccupe encore 40 ans plus tard. Alors je fais l’hypothèse suivante. Ce rapport affectif très fort avec la doudou, sa doudou, est un combat douloureux de projection du moi vers un autre moi qui lui permettrait d’acquérir son autonomie de pensée, de reconnaissance de ce moi (dans un miroir virtuel) sur lequel elle va pouvoir projeter des sentiments, lui permettre d’entrer dans la perception du triptyque passé-présent-futur, et ainsi dans le processus de dissociation nécessaire à la création quelques années plus tard de son intelligence conceptuelle. L’animal de compagnie n’a pas de doudou mais il va jouer avec un os, une balle ou autre mais ce jeu ne se situe pas dans un rapport d’attachement et de dissociation. Il n’a pas de volonté de s’émanciper de la situation de jeu. Il n’est pas dans un processus Sapiens de création. Fin de la parenthèse. Dans le processus de dissociation entre moi et ma projection, la vue est-elle le sens qui devient dominant ? Il semble plus important que l’odeur ou que le toucher. L’odeur pourrait jouer un rôle chez l’animal mais il n’est pas assez performant chez l’homme. Le toucher semble également important au moment de la naissance aussi bien chez l’animal que chez l’homme. Le son disparaît-il plus vite que la vue dans la mémoire à long terme ? Ce n’est pas certain mais son registre semble moins étendu. Soyons prudent sur cette affirmation car les musiciens me contrediront certainement. Le registre de la vision semble plus performant pour figer le temps et permettre une extraction répétitive. Il y a également un processus de dissociation chez l’animal. Pour marquer son territoire, il laisse des empreintes visuelles ou odoriférantes. Il projette son moi de manière inconsciente. La vue, c’est l’image, une empreinte atemporelle qui peut être revisualisée plus tard. Elle est nécessaire au processus de dissociation. Elle participe à un processus additionnel dans le cerveau qui permet une fonction spécifique, la conceptualisation. Cela suppose un centre particulier capacitaire propre à l’Homo Sapiens. La spiritualité de l’homo Sapiens : L’esprit de l’Homo Sapiens a considérablement progressé au cours des âges. Par esprit , nous entendons toutes les représentations exprimées et non exprimées que l’homme est capable de considérer dans sa conscience comme un préalable à l’action intentionnelle ou effective. L’émotionnel est une source de turbulences qui conditionne l’esprit dans son développement. L’esprit est au cours des millénaires un état qui est régulé de manière systémique avec son environnement social. Il évolue quand l’environnement social évolue. Il semble encore difficile d’en dater les évolutions. Les civilisations qui se sont succédé sont des étapes de cette évolution de l’esprit. Ce sont des groupes humains proches qui ont partagé une même organisation et un corpus de connaissances et des pratiques durant une époque. Les interactions entre ces civilisations sont un chapitre de la recherche historique. Nous ne connaissons que quelques civilisations seulement. Il est donc particulièrement difficile de décrire les stades de l’évolution de l’esprit humain au-delà de 10 000 ans. Ce qui semble acquis, c’est l’existence d’une organisation sociale et d’un niveau de communication linguistique de haut niveau dès le début de la sédentarisation au néolithique. Les spiritualités ont accompagné l’évolution du vivant. Cette revue ne vise pas à faire un résumé de l’histoire des religions mais à rechercher comment ces dernières ont participé à réduire l’angoisse existentielle qui est apparu avec la lignée du Sapiens. Les spiritualités sont nées du nouveau rapport de l’homme avec son environnement. C’est au moment où l’homme inscrit sa main en négatif sur une paroi qu’il prend conscience de son moi par rapport à l’ensemble de son environnement spatial et temporel. Ce n’est plus simplement la faim de sa compagne et de ses enfants qui le pousse à aller à la chasse, c’est la conscience du temps qui passe comme celui qui est passé. C’est la conscience qu’il est un vivant avec une mère et des descendants. C’est la conscience de la vie et de sa capacité à en prendre la maîtrise même si celle-ci est partielle. Un vertige va se créer car les questions sont plus nombreuses que les réponses. Cela lui « prend la tête » comme un humain le dirait aujourd’hui lorsqu’il est submergé par le « que faire ? ». Il se crée une angoisse existentielle qu’il a besoin de réduire sinon il ressentira un inconfort voire une souffrance. Cette conscience du moi existe chez l’enfant vers deux ans. A quel période est-elle apparue chez le Sapiens, on ne le sait pas. A partir de cet inconfort psychique il va chercher à réduire cette angoisse existentielle en adoptant plusieurs réponses spirituelles. L’animisme primitif est né cette époque. Il ne relève pas du même processus de conscience mais plutôt d’un effleurement de la conscience. Il n’est pas construit. Il traduit des peurs et des angoisses avec des signes, des superstitions et des rituels. Il précède le polythéisme qui tente de stabilise les peurs. Les esprits, les génies, les dieux, sont des représentations construites. La spiritualité est projetée sur des esprits virtuels avec lesquels l’on peut de manière imaginaire enter en contact. C’est rassurant. Leur adoration est un grand bazar où le Sapiens peut trouver son bonheur c’est-à-dire sa médecine douce. C’est une spiritualité qui invente son monde et permet de s’installer dans une croyance pour que l’âme agisse sur le corps. Une sorte d’effet « placebo » dans le vocabulaire d’aujourd’hui. Le polythéisme a pris des formes diverses. La religion accompagne l’Homo Sapiens sous des formes diverses. Par religion, il faut entendre la pratique de rites avec des croyances envers d’autres « moi » imaginaires à qui le Sapiens attribue un rôle. La superstition, la magie, la divination, la sorcellerie, est courante. Elle traduit à la fois une « liberté créative » et un sentiment de malaise devant un futur sans certitude. Cette spiritualité sera d’une autre nature lorsque le monothéisme apparaît comme se voulant la source d’un nouvel ordre. Le dieu unique existait dans le polythéisme, Zeus, Jupiter. Un changement important intervient avec l’avènement du monothéisme. Il socialise la relation entre les hommes par un lien qui se veut universel et collectif. La religion du dieu unique, le monothéisme sera une étape dans l’évolution du Sapiens. L’ordre nouveau n’est plus celui d’une communauté avec ses usages et coutumes et de son chef mais celui d’un chef imaginaire à qui chacun est invité à reconnaitre son pouvoir. Du chef guerrier au Dieu spirituel : Dès l’antiquité, le besoin d’un chef a été la règle dans les communautés humaines. Un chef guerrier, en chair et en os, s’est imposé dans une communauté, souvent pour sa capacité réelle ou potentielle à défendre sa communauté ou à conquérir d’autres territoires. A part quelques exceptions, c’est la gente masculine qui a été choisie comme chef. Et Dieu sera, de facto, assimilé au genre masculin. A l époque, la mythologie était une forme de représentation imaginaire qui permettait de projeter la pensée humaine au-delà de l’action immédiate. Le passage au monothéisme a eu comme changement de désigner un chef suprême abstrait mais amené à régner par son esprit, le saint esprit. Le changement est considérable, car le chef devient un guide spirituel intemporel et universel. C’est un chef qui gouverne, qui règne et qui doit regrouper tous les humains. Le « Pater Noster », la prière chrétienne la plus répandue est claire à ce sujet. Notre Père Qui es aux Cieux, Que Ton Nom soit sanctifié, Que Ton Règne vienne (arrive), Que Ta Volonté soit faite sur la terre comme au ciel. C’est un pouvoir spirituel au dessus de celui de l’humain. Le seul inconvénient est qu’il faut des prophètes pour traduire cette volonté en langage humain. La bataille des prophètes commence alors pour une longue période. Une hiérarchie ordonnée va conduire le troupeau humain. L’histoire retient Moïse comme premier prophète du Judaïsme. Il était un chef spirituel d’un groupe d’hébreux, anciens esclaves du royaume égyptien, en errance dans le désert du Sinaï (vers 1400 av JC) à la recherche d’une raison de vivre et d’espérer. La foi spirituelle fut une force aidant à la survie du groupe et qui prit cette forme singulière. Cela fut aussi une mise en ordre sociétale avec les tables de la loi. Le monothéisme semble cependant plus ancien et avait cours dans l’empire perse. Tout au long de cette période, de nombreux prophètes (en concurrence parfois sanglante) tentèrent de promouvoir leur vision comme la volonté de Dieu. La route a été longue pour universaliser une pensée « gravée dans le marbre », le décalogue, il y a plus de 3000 ans, Le monothéisme s’est diffusé sur un petit millénaire. Parenthèse : Le monothéisme judéo chrétien marque une étape dans l’évolution de l’humain dans notre société occidentale par l’ampleur de son influence durant 2000 ans. La religion monothéiste est aujourd’hui dans une phase d’évolution qui se dessine avec des mouvements complexes. L’église chrétienne étant légèrement majoritaire au sein des églises monothéistes devant celles qui relèvent de l’Islam. L’athéisme n’est pas la règle (moins de 15% de la population mondiale). La pratique religieuse est plus difficile à cerner, car elle est fonction de l’affiliation religieuse et des pays. Fin de la parenthèse. 87 Commet expliquer cette évolution ? Au cours des 7000 derrières années de notre décompte actuel du temps, le nombre de Sapiens se multiplie au même rythme que la sédentarisation. Les communautés deviennent les sources d’échange et d’apprentissage. La socialisation devient le facteur essentiel de la progression de l’esprit du Sapiens. La religion monothéiste était-elle consciemment une volonté d’aller donner plus de de stabilité à la communauté humaine ou bien une conjonction évolutionniste des sociétés de l’époque qui a fait adopter l’idée d’un dieu unique avec ses prophètes et missionnaires ? Ce qui est certain, c’est que la religion a profondément modifié la structure des communautés humaines. Le pouvoir absolu d’un chef guerrier sur terre pouvait être combattu par un contre pouvoir, celui des représentants de Dieu. La loi de Dieu apparaissait comme une loi universelle qui s’impose à tous et qui met au second rang les croyances individuelles en tel ou tel dieu de la mythologie. C’est également une volonté d’être intemporel. Les lois de Dieu étant spirituelles sont au-delà des situations contingentes. Elle refonde les rites qui existaient depuis la nuit des temps. Ils sont essentiels comme valeur d’appartenance et les pratiques reposent sur des choix symboliques. Ces nouveaux rites n’avaient pas pour vocation première de modifier la structure patriarcale de la société mais d’introduire un ordre social commun. En ce sens, la religion monothéiste pouvait rassembler les esprits et les unir autour d’une même charte humaine. La légende et le dieu mythique (homme-animal dans l’antiquité égyptienne par exemple) accompagne le Sapiens depuis qu’il possède une conscience et une capacité à communiquer. La religion chrétienne s’est imposée car c’est un système sociétal à part entière qui dépasse toutes les formes d’organisations existantes en s’appuyant sur un texte spirituel (l’ancien testament) dont le message de paix se substitue à toute forme de pouvoir humain. Concrètement, ce système utilise la foi comme vecteur de subjugation de la population. Pour atteindre son but, va se mettre en place une organisation complexe s’appuyant sur de nombreux moyens qu’utilise une société moderne doté peut lui envier pour son efficacité. Par exemple, (le rassemblement dans des églises, construites par les croyants eux-mêmes, remplacent l’agora citoyenne. Les prêches et les messes, avec leur déroulement théâtral grandiose et coloré, leur rituel discipliné, émulent le sentiment d’appartenance des fidèles. Traditionnellement La religion catholique instaure des prières au moins trois fois pour un non ecclésiastique et la sonnerie des cloches marque le moment de ces prières. Il serait trop long de détailler tout ce qui a été inventé. Pour faire court, retenons les mythes et les légendes autour du Christ , ce sont les rites et les fêtes religieuses ; les symboles , ce sont la croix, le calice, … ; les moyens évangéliques , ce sont la compassion et l’aide matérielle ; la structure de coordination , ce sont la hiérarchie ecclésiastique et les prêtres ; le contrôle , ce sont les lois de l’église ; la surveillance mieux que « big Brothers », c’est la confession qui fait venir le sujet lui-même pour avouer ses pêchés ; les moyens promotionnels , ce sont la création et la médiatisation des évènements religieux ; les moyens financiers , ce sont l’impôt, le denier du culte. Quoiqu’il en soit, au-delà du fait religieux, c’est l’idée d’une société qui cherche à dépasser une organisation sociétale violente pour un ordre plus évolué et plus pacifique. Dans les sociétés primitives, la violence est aujourd’hui mise en avant par de nombreux experts. Les raisons en sont nombreuses tel que la défense de son territoire, la conquête de territoire pour se procurer femmes, enfants, voler du bétail ou répondre à un vol, prouver sa force, ou certaines croyances ou préjugés racistes etc. A l’intérieur même des groupes nombreux sédentarisés, les violences étaient nombreuses et le meurtre loin d’être exceptionnel. C’est aussi l’élaboration d’un système extraordinairement élaboré de soumission psychologique à un culte. En évitant, les guerres dévastatrices et cruelles, et en unissant la population autour d’un ordre universel, l’homme aurait du vivre dans un monde meilleur. Cet ordre nouveau a été détaillé par écrit sous différentes formes dont la Torah vers 600 AEC. Elle comprend 613 commandements suivant la tradition. Ce premier texte évoluera en de nombreuses versions. L’idée globale était une foi partagée avec un amour du prochain et l’acceptation d’un ordre moral et social codifié. L’intention était louable. Hélas, La réalité sera différente et conduira aux guerres de religion qui n’ont jamais cessées. Une deuxième manière de réduire l’angoisse existentielle est de maîtriser son esprit en le libérant de la souffrance du corps et des désirs au sens large. Cette orientation de type bouddhiste (voir infra) conduit à la méditation et au détachement des biens matériels. Elle est hautement individualiste. Une troisième voie est une voie philosophique humaniste qui met l’ensemble des hommes dans un système collectif responsable ou chacun est invité à la fraternité et à la solidarité. Elle donnera lieu à des communautés capables de s’autogérer par une spiritualité partagée. Cette voie possède un contour qui ne se prête pas à une définition unique. Elle se retrouve aussi bien dans le fouriérisme que dans le confucianisme. Le confucianisme en particulier va devenir une source d’organisation sociétale des pays de peuplement sinisé. Le confucianisme est resté la doctrine qui fonde la gouvernance de la Chine contemporaine. Confucius serait né en 554 avant l’ère commune, il n’a écrit aucun ouvrage mais les témoignages de sa pensée sont retracés dans Le Livre des Entretiens, rédigé par ses disciples. Ce livre enseigne le perfectionnement de l’homme, les rites pour honorer ses parents, la manière de se comporter envers ses inférieurs et ses supérieurs, etc. Son enseignement traite uniquement des problèmes humains et se veut accessible à tous les hommes. Au Vietnam, le Confucianisme a été la doctrine officielle des concours de mandarinat. Le premier eut lieu sous la dynastie des Ly en 1075, le dernier concours prit fin en 1919. Chacune de ces solutions va déboucher sur un système politique et un ordre sociétal extrêmement varié parfois unique et totalitaire, parfois en symbiose avec un autre système politique. Le califat, la monarchie chrétienne, le communisme, en sont des exemples. Le modèle religieux monothéiste par son universalité et son objectif sociétal a probablement été un progrès par rapport au mode de vie très éclaté des très nombreux petits royaumes de l’époque dont les problématiques étaient plutôt relatives à la survivance économique et à la défense e leur territoire. Mais le modèle religieux a vite été mis en échec par les schismes successifs et la naissance d’une fracture orient – occident. En définitive, le progrès de la spiritualité monothéiste s’est transformé en désastre sociétale avec les guerres de religion et la dictature des chefs de foi. Certains ont formé une hiérarchie avec un chef suprême (le catholicisme), d’autres des confréries avec une organisation plus complexe et des chefs dont la source de leur autorité est difficile à cerner et traduit une lutte d’influence. Il y peu de spiritualités nouvelles depuis plusieurs siècles. La plupart des courants nouveaux sont issus des spiritualités connues. L’absence de spiritualité religieuse ou similaire reste une exception chez le Sapiens d’aujourd’hui. Parenthèse : Quand je suis arrivé en 1991 au Vietnam, j’ai tout de suite remarqué qu’il restait de nombreux signes de référence à la religion bouddhiste. J’ai progressivement découvert qu’outre le culte des ancêtres et les croyances populaires chez les diverses ethnies, il y avait un foisonnement extraordinaire du fait religieux à travers le bouddhisme, le taoïsme, le shintoïsme, le catholicisme, l’Islam. Le Vietnam pays officiellement de doctrine communiste depuis moins de cent ans n’a jamais réussi à éradiquer le besoin de religion au niveau du foyer vietnamien. Cela confirme que le Sapiens a besoin d’une spiritualité qui l’accompagne tout au long de son vivant et cela quelle qu’en soit la forme. Le peuple vietnamien n’est pas différent des autres peuples même s’il a une curieuse propension à prendre une partie de chaque religion un peu comme dans un menu à la carte. Il a même en 1921 crée une religion syncrétiste, le Caodaïsme qui compte environ 3 millions de fidèles. Même après quelques séjours, je n’arrivais pas encore à comprendre à quel moment il était préférable que je suive le rite taoïste plutôt que bouddhisme ou encore le culte païen en trouvant le bon génie. Et cela sans compter qu’il peut y avoir différentes formes de bouddhisme pratiqués au sein d’une même famille et des « églises dérivées » qui sont des fondations spirituelles hybrides. Je progresse …. Fin de la parenthèse . 91 Le bouddhisme est-il une religion, une philosophie ? ni l’un ni l’autre, c’est pour moi une solution pratique à l’angoisse existentielle. La pratique bouddhiste originelle de Siddhârta Gautama , VI e siècle avant l’ère commune. Il comprendra par la suite de nombreuses variantes parfois très éloignées. Le bouddhisme cherche à faire abstraction du réel pour atteindre un état de détachement absolu, qui en dehors d’une paix intérieure et le rejet du désir, permettrait de se fondre avec l’univers et le néant. C’est une non-perception, une non-sensibilité qui permet d’accéder à cet état de distanciation, de détachement une recherche du néant, nihiliste de la vie. L’ascétisme et le soutien de la communauté va aider à atteindre ce point spécifique. Proche de certaines religions de l’époque en Inde, ce choix de refus de la vie biologique sera repris par des disciples. Ce bouddhisme orthodoxe n’existe quasiment plus. Il a été une voie d’évolution de la conscience du vivant dont l’Eveil a conduit à une impasse existentielle singulière, faire en sorte que sa conscience de son corps et de son environnement n’existe plus. Suicide sublimé, désespérance, création d’un leurre spirituel, ou croyance dans une illumination qui joue le même rôle que celle de Dieu dans la religion judéo-chrétienne. Parmi les très nombreuses écoles qui ont vu le jour, La voie « du grand véhicule ou mahāyāna » est la plus répandue au Vietnam. Les bonzes d’aujourd’hui, adeptes du Bouddhisme, disent rechercher une libération de l’esprit en détachement des contraintes matérielles et organiques. Dans certaines communautés, en dehors d’un isolement et d’un recours important aux rites, il y a la recherche d’une maîtrise du corps et de l’esprit pour atteindre un état mental absolu. Le comportement quotidien montre un comportement généralisé de bienveillance, compassion et amour de tous, mais également un détachement vis à vis de la souffrance. Paradoxalement, l’enrichissement matériel de la communauté bouddhiste est courant et le don est largement accepté. Il semble bien que l’impasse existentielle du bouddhisme initial ait évolué vers une symbiose existentielle avec le monde. Pour la population, les communautés bouddhistes et leurs temples remplissent un rôle assez similaire à celui de toute église permettant un apaisement spirituel sans contrainte. Le Sapiens est-il prisonnier de l’hyper société qu’il a créée ? A l’origine l’homme était soumis aux caprices de la nature. Par la suite, dans la relation entre Homo Sapiens et nature, l’homme a pris le dessus. C’est lui maintenant qui gère la nature. Et certains lui reprochent de mal le faire, mais c’est une autre histoire. Aujourd’hui, on avance vers une relation dominante Sapiens – Sapiens, plus importante que la relation de l’homme et de la nature, dont on connaît mal l’issue. Cette prochaine étape n’est pas encore jouée. Sixième postulat : Quelle qu’en soit la forme, le lien sociétal crée un mouvement dynamique de flux et de reflux des communautés créées par le Sapiens au niveau planétaire. Le mot « communauté » est un choix de mot qui veut signifier qu’il existe plusieurs variétés de regroupements qui s’interconnectent au cours de l’évolution du Sapiens. Il peut s’agir des groupes tribaux, des villages et places fortes, des peuplades, des seigneuries, des paroisses, califats ou autres groupements religieux, des royaumes et empires, des états nations, des états religieux, des ensembles géopolitiques, des civilisations. Ce que je veux exprimer, c’est simplement que l’Homo Sapiens est aujourd’hui un « homme sociétal » à part entière et que cette dynamique de connexion entre sociétés différentes crée des mouvements complexes d’assimilation et de rejets, d’alliances et de confrontations, de domination et de soumission. Le mot sociétal apparu au début du 20ème siècle permet de se différencier du mot social en soulignant qu’il dépasse les rapports entre individus pour concerner l’ensemble des individus. Par sociétal, Il faut également entendre « l’organisation volontaire contraignante d’une communauté humaine qui partage un mode de pensée et de vie sociale ». Cette organisation contraignante sera ambivalente en ce sens qu’elle peut être vécue comme apaisante et se substituant au moi libertaire (en recherche d’insertion sociétale), ou agressive et vécu comme liberticide. Cette dynamique se joue au niveau de la petite communauté de quelques centaines de membres comme au niveau de civilisations de plusieurs millions de membres. Parenthèse : Dans une communauté, la vie entre membres se manifeste par des rapports convenus et appris. Le désordre social est principalement contenu par l’initiative de chacun. La réputation de chacun est celle que l’autre va répandre ; l’étranger subit la méfiance. La règle est celle des anciens qui la tiennent des anciens. Dans une société, les communautés se mélangent et donnent lieu à des espaces organisées et à des règles de vie en commun. La Cité au sens large (comme la cité antique) est la forme première de ses regroupements. La vague communautaire va se former en engloutissant des communautés géographiques, spirituelles, culturelles. Leur existence sera dépendante de leur organisation, de leur solidité structurelle, de l’adhésion de leurs membres. Elles peuvent être qualifiées de civilisation lorsqu’il est plus pertinent de désigner le tout que les parties. Il ne peut y avoir de système sociétal sans principe holistique qui relie tous les éléments pour donner à l’ensemble sa force de résilience. Cependant, rien n’indique que cette force ne basculera pas d’une orientation néguentropique vers une orientation entropique et réciproquement. Il n’y pas de garantie de durée et des civilisations ont disparues malgré leur résilience en tant que système de société. Fin de la parenthèse. Peut-on caractériser l’évolution contemporaine du Sapiens comme celle d’une marche vers une hyper société. Le lien sociétal est-il de plus en plus fort ou bien n’est-ce qu’une illusion. La réponse n’est pas évidente car l’histoire est ondulatoire avec des phases de désagrégation et d’autres de consolidation. Les empires se sont succédé tout au long de ces derniers millénaires. La forme de pensée du vivant ne semble pas avoir suffisamment évolué pour envisager une autre forme d’évolution en ce début de siècle. C’est sans doute la raison pour laquelle l’angoisse existentielle conduit aux pires prédictions apocalyptiques et la religion est toujours d’actualité. Quel vivant pour le futur ? La diversité des peuplements humains semble aujourd’hui appartenir au livres d’histoire. Il peut effectivement y avoir au 21 -ème siècle, dans les forêts denses, quelques très rares groupes humains qui sont isolés depuis quelques milliers d’années. D’une manière générale, le Sapiens n’a cessé de s’étendre sur la surface du globe et de nouer des liens. Il y a eu des isolations temporaires par suite de l’évolution de la topographie entre la terre et les océans et l’absence des moyens de communication. L’accroissement démographique s’est accompagné de celui des migrations et celui des échanges commerciaux. Les conquêtes territoriales, le colonialisme, le développement industriel, la mondialisation massive du commerce, le tourisme ont, en l’espace de deux siècles, modifié le cadre d’analyse du fait sociétal. L’hypersociété est née au 20 -ème siècle avec une approche sociétale globale portée par de nouvelles institutions comme la société des nations, l’organisation des nations unies ou des institutions plus sectorielles comme l’organisation mondiale du commerce, l’organisation mondiale du commerce, … . Au 21ème siècle, nul doute que la révolution numérique et la prolifération des réseaux sociaux modifie encore plus le cadre sociétal. Les réseaux sociaux cristallisent les blocs dominants. Le temps lui-même n’est plus un facteur fondamental de l’organisation de la société. Il faut quelques heures pour aller de Paris à New York, quelques jours pour transporter des marchandises volumineuses, quelques secondes pour recevoir les images d’une cérémonie de mariage à des milliers de kilomètres, Que veut dire dans ce nouveau contexte la globalisation de la société ? est-elle inévitable ? Doit-on considérer que la convergence sur le long terme sera totale même si ce processus est un parcours accidenté. ? Ou bien assistera t-on à une transformation qui donnera une nouvelle configuration poly sociétale avec une superstructure transversale ? Une superstructure transversale va-t-elle conduire à une pensée transversale. La lutte contre le réchauffement climatique démontre qu’une conscience globale transversale peut émerger mais que la mise en commun de solutions n’est encore qu’un vœu pieux. Quelle institution transversale oserait aujourd’hui intervenir militairement pour protéger l’Amazonie de la déforestation ? Nous sommes toujours dans l’esprit nationaliste avec une prépondérance à définir la nation d’abord par rapport à un sentiment d’appartenance puis par rapport à une identité faite du patrimoine et de l’histoire. Ainsi, le breton a un fort sentiment d’appartenance à une région géographique, la bretagne, et à un territoire plus large défini par une gouvernance, la France. Sa conscience d’appartenir à l’Europe est en voie d’évolution mais loin d’engendrer un sentiment d’appartenance aussi fort. Affirmer que l’évolution du Sapiens passe nécessairement par une plus grande conscience l’amenant à concevoir la planète terre comme une seule et même société reste un discours et non le résultat d’un constat reconnu. Pourquoi ? Les spiritualités actuelles sont trop conservatrices et visent plutôt à préserver les territoires ou à occuper des territoires de manière violente (comme l’Islam radical). Les nationalismes assis sur une langue partagée sont également des forces conservatrices qui mobilisent fortement les populations et communautés de tout bord. Le Brexit est une forme de défense identitaire et économique de l’Angleterre. Il est un marqueur du repli nationaliste. Le « Poutinisme » est également une forme de valorisation nationaliste du peuple russe assise en partie sur une dimension militariste. La tentative de créer à partir d’un territoire (le califat de l’Etat Islamique) promeut une l’idéologie religieuse conquérante en concurrence avec d’autres, la nostalgie de l’image de l’empire Ottoman anime probablement les fantasmes du président turc Erdogan. La résurgence de la civilisation historique chinoise est un ciment très fort dans la conscience de chaque membre de la Chine Etat-Nation. Il est vrai que le phénomène n’est pas nouveau. L’appartenance d’un groupe à un peuplement qui a développé au fil des générations, sur un territoire, une culture identitaire a toujours été une base de motivation d’une société dans ces choix de vie, d’adaptation à l’environnement, de réaction à la menace ou de désir de prendre ce que l’autre possède. Une conscience sociétale plus large est-elle illusoire ? La pandémie de la Covid 19 a montré comment en quelques semaines les frontières des Etats Nations pouvaient se refermer. Ce sont des exemples qui montrent simplement que de tels replis sont possibles et que la mondialisation peut s’effondrer comme un château de cartes mais d’un autre côté, il y a une solidarité qui se forme et il y a un partage des moyens et des solutions. Les jeunes générations ont montré depuis près d’un siècle leur engouement pour la défense des causes sociales, écologiques, humanitaires et autres. Cependant, Cela ne signifie pas une convergence vers une spiritualité commune. Et l’angoisse existentielle des jeunes générations ne semble pas faiblir. Une fois passé ce cap, les adultes retrouvent les fondements du comportement de leurs ancêtres . De l’église au centre commercial, une même réponse à la condition humaine. Le centre commercial du XX -ème siècle possède une dimension permettant la circulation d’une foule sous un toit haut qui donne un volume imposant. Les vitrines sont des centres d’émerveillement tout autant que la décoration et le marbre qui pave les vastes allés. Les lumières et les couleurs créent un environnement festif qui accompagne l’acte d’achat. Il procure un enchantement des sens quasi magique. Dans les années 90’, Le centre commercial n’est pas seulement un lieu marchand mais un lieu de socialisation et d’émerveillement. On s’y promène, on s’y retrouve en fin de semaine, on y mange, on participe à un rituel hebdomadaire. Ce nouveau temple de la consommation succède à la cathédrale, l’église, le site religieux fréquentée les fins de semaine. La vitrine remplace le vitrail. Mais la cathédrale elle-même s’inscrit dans ce même système de valeur. Elle est un lieu d’enchantement, de socialisation, d’adhésion à des valeurs et des croyances. Son style architectural grandiose participe à cet enchantement. Cela a vraisemblablement été également été le cas des grottes préhistoriques qui par leurs dimensions, leur jeu de lumières, leur décoration pariétale et leurs pratiques rituelles sont les cathédrales de la préhistoire. Les valeurs de l’homme préhistorique sont des suppositions au regard des artefacts mais tout porte à croire que c’est un ensemble de valeurs qui sont nés en même temps. On peut tout à fait appliquer la typologie de Holbrook qui relativise l’acte rationnel d’achat de la société moderne. Il relie l’expérience et le vécu émotionnel envers l’objet utilisé comme source de comportement. L’expérience vécue et encryptée devient valeur de comportement. Elle va susciter en réponse un comportement actif ou rétroactif individuel ou social, avec des conséquences sur la manière de se comporter individuellement et socialement par rapport au groupe d’appartenance. C’est le retour d’expérience, c’est le vécu et ses charges émotionnelles plus que la raison qui explique les comportements de l’humain. L’émerveillement, la peur, le plaisir, la détestation, le l’esthétique, le jeu, etc… d’une part, le statut social, l’estime, l’éthique, le suivisme, etc., sont les ancrages de l’expérience vécu qui font encore aujourd’hui partie de la condition humaine. Cette typologie ne remet pas en cause le calcul rationnel que l’on prêtera à l’homo économicus, il le relativise comme source de comportement. Elle charge le rapport d’échange d’une valeur expérientielle qui s’ajoute à la valeur d’usage. Dans la préhistoire, l’objet – rite (au sens large) est chargé de valeur sacré et/ou cultuel. Le vêtement a une valeur de statut social en dehors de sa valeur d’usage. Les fondements du comportement humain du Sapiens semblent se perpétuer depuis des millénaires dans toutes les civilisations connues. Septième postulat : Le Sapiens subit le paradoxe d’une convergence spirituelle pour accéder à plus de stabilité et la recherche du progrès humain par un processus de compétition déstabilisant. Si l’on admet que le progrès humain provient d’un processus compétitif entre humains. Le plus fort dans le domaine économique, sociétal et militaire procure un avantage à la population qui œuvre dans ce but. C’est ce déséquilibre assumé, structuré par un communautarisme de type nationaliste qui rend possible un discours politique populiste et conduit à un comportement sectaire et dominateur. Cela a été le cas avec la doctrine du président américain Donald TRUMP, élu en 2016, avec la formule « America Great Again ». Cela a été le cas avec le séparatisme britannique (BREXIT) vis-à-vis de l’Union Européenne approuvé par référendum en 2016. Le nationalisme Chinois suit également cette voie sous l’égide d’une direction politique collégiale (Politburo, dont le secrétaire général est Xi Jinping). La nouvelle route de la soie est une version moderne de la guerre économique. Si le Sapiens a conscience qu’il forme une communauté spirituelle unique qui dépasse le désordre qui peut naître de ces égocentrismes géoculturels, il n’a pas encore la capacité à trouver une voie non conflictuelle pour partager le progrès humain. Il faudra encore attendre plusieurs générations pour que l’on assiste à ce que cette convergence spirituelle gère planétairement la répartition du progrès humain. Elle n’est pas une certitude mais une évolution possible. Elle se traduira par une nouvelle charte mondiale que l’on pourrait imaginer. Mais la charte ne suffira pas, il faut y ajouter le mythe et le rite. Et pour partie le gendarme. Il n’y a pas d’indices précurseurs actuellement d’une possible convergence spirituelle globale qui établirait une fédération planétaire. Ce n’est pas pour autant qu’il y aura un retour au passé. Le Mennonisme est un courant religieux d’origine chrétienne très minoritaire qui subsiste au 21 ème siècle. Sa doctrine revendique l’absence de recours au progrès technique, le refus des armes et la non-violence. Très repliées sur elles-mêmes ces communautés ne semblent pas être en mesure de modifier la pensée spirituelle du Sapiens. Une autre question se pose. Un individu seul peut-il conduire durablement à altérer le chemin vers une conscience sociétale globale. Le temps des nouveaux prophètes planétaires est-il pour demain ? Oui, c’est possible. La communication d’un seul individu peut aujourd’hui toucher des millions d’autres individus et traverser les frontières. Les barrières des états nations sont techniquement fragiles sauf à aboutir à un régime totalitaire. Mais nous n’y sommes pas encore. En 2070, peut être. Dans ce contexte, une bifurcation conduirait à faire exploser le monde en deux blocs celui des régimes libéraux et celui des régimes totalitaires. Un scénario qui ne serait plus un scénario littéraire. Une autre vision, plus réaliste aujourd’hui est celle d’un stade intermédiaire d’hypersociétés qui se groupent sous forme de blocs et cela particulièrement en cas de crise conflictuelle. Il semble que cette transformation soit plausible et assez proche de la pensée actuelle. Elle demande une réactualisation de l’autonomie et une modification du processus d’industrialisation et de commerce. Elle conduit comme cela s’est produit au cours de l’histoire à reformer des blocs d’alliance et à les rendre indépendants militairement et économiquement. Mais peut-il y avoir une nouvelle spiritualité au delà d’une logique d’affrontement ? Oui. Pourquoi ? L’idée est que le Sapiens n’est pas prêt à s’engager dans ce processus avec une régression de son bien être sauf s’il a la conviction que son action peut amener à un bien être supérieur qui mérite son sacrifice. Cela nécessite qu’il ait une éducation et un acquis de connaissances lui permettant de faire le choix du camp des pacifistes. Il aura mesuré le bénéfice/coût. Non. Pourquoi ? L’idée est que le Sapiens est prêt à s’engager dans ce processus avec une régression de son bien être s’il a la conviction que son action peut amener à un bien être supérieur qui mérite son sacrifice. Cela nécessite qu’il ait une éducation et un acquis de connaissances lui permettant de faire le choix du camp des militaristes. Il aura mesuré le bénéfice/coût. Cette approche est plutôt rationnelle, peut être trop rationnelle. L’ultime évolution Mondialisation et hypersociétés, convergence des savoirs et compétition technologique, convergence des enjeux et ultra compétition économique, convergence spirituelle et compétition des valeurs sociétales, quelle sera l’évolution à venir ? Elle ne sera que les prolongements de la condition humaine et des ses sept capacités primitives : capacité de temporalisation, capacité de communication, capacité de conceptualisation, capacité de socialisation, capacité de dénombrement, capacité de création, capacité de …. Ce chapitre reste à écrire… mais vous pouvez lire mon autre blog « l’évolution de la société contemporaine. » Kristo de Foulonval mars 2021
par Kristo de Foulonval 29 janvier 2021
JULES VERNE ou l'échec de la prédiction du futur par Kristo De Foulonval rév130321 format LDP+ Mots clé : Jules Verne, prédiction, futur, prévision, prospective, invention, découverte scientifique, science-fiction. J’ai été attiré par la science fiction depuis mon enfance et je me suis toujours demandé quel serait mon futur 50 ans plus tard. Dans ma jeunesse, comme de nombreuses personnes, j’ai lu les aventures de Jules Verne. En 2015, j’ai découvert à nouveau Jules Verne. J’ai été particulièrement intéressé par son premier manuscrit qui signe son entrée dans le domaine de la science-fiction : Paris au XX ème siècle. Il en a commencé l’écriture en 1860 mais ce roman sera refusé par son éditeur et publié tardivement en 1994. En 1960, j’habitais à Paris dans le 20 ème arrondissement et j’étais lycéen. Je n’avais donc jamais lu ce texte écrit 100 ans auparavant, qui décrivait Paris en 1960. Cette lecture pouvait - elle m’apporter une solution pour prédire l’avenir de mes enfants et petits enfants ? J’ai cherché la réponse et c’est ce qui m’a décidé à écrire ce blog. Je crains malheureusement que prédire le futur ne soit seulement qu’un exercice de style en raison de l’explosion des inventions technologiques au 21 ème siècle. Ce post est une synthèse de billets écrits entre 2015 et 2020. Qui est Jules Verne ? C’est un écrivain né en 1828, célèbre pour ses romans d’aventure et de science-fiction. Dans un manuscrit écrit entre 1860 et 1863 : Paris au XXème siècle . Il va projeter sa vision de Paris 100 ans plus tard. Ce roman, un des premiers, n’entre pas dans la série des succès qui le fera ensuite connaître (Cinq semaines en ballon, Le tour du monde en 80 jours, Vingt mille lieues sous les mers, parmi d’autres) Par vocation, il a déjà écrit des poésies, des billets et des pièces de théâtre. A l’époque la littérature n’est pas tournée vers une projection futuriste. La culture ambiante est encore à la poésie, au vaudeville, au roman ou bien encore au récit politique avec un regard sur la société et ses mœurs. Les littéraires et autres écrivains sont d’abord spectateurs de leur époque et rares sont ceux qui abordent le futur sur une base rationnelle. Est-il bien raisonnable de prédire le futur du monde dans 100 ans alors que l’on va encore chez la cartomancienne pour prédire son propre futur ? Cependant, Malthus (Essai sur le principe de population en 1798) introduira la prévision démographique liée à celle de la ressource agricole. Cet essai aura une grande influence et sera à la base de plusieurs théories économiques sur la loi des rendements décroissants et la paupérisation. Jules Verne sera qualifié de « prophète », par son éditeur Hetzel. Prophète, c’est une personne qui entre la fiction de l’avenir dans le divinatoire en l’absence de tout argument basé sur la logique, le raisonnement et les sciences. Nous verrons que cette opinion, bien que brutale, reflète certainement une vision affairiste. L’éditeur pensant qu’il n’y avait pas de public pour ce genre de littérature. « Mon cher Verne, fussiez-vous prophète, on ne croira pas aujourd'hui en votre prophétie ». Extrait de lettre de l’éditeur Hetzel à Jules Verne cité par Piero Gondolo Della Riva, expert de la biographie de Jules Verne. En 1863, sa proposition de livre se fera donc retoqué par Hetzel ; et pourtant la même année, ces autres récits d’aventure deviendront des succès en tant que romans d’un nouveau genre, le récit de science-fiction (un mot quasi inconnu à l’époque). L’idée d’Hetzel était plutôt de promouvoir une revue littéraire destinée à l’éducation des enfants en publiant des romans d’aventure s’appuyant sur les sciences et contenant des illustrations. Par la suite, Jules Verne défriche, à travers ces écrits, ce nouveau genre littéraire d’aventure et de science-fiction. Faisant une description du monde futur. Il puise dans les découvertes scientifiques et les inventions. Il les combine parfois pour en imaginer les applications. Il deviendra la figure historique de ce nouveau genre. Paradoxalement, si l’auteur se documentait avec frénésie sur les découvertes techniques de son siècle, il était effrayé par la domination de la technique sur l’ancien monde de l’éducation qu’il avait connu et qu’il vénérait. Le contrat avec son éditeur l’amena effectivement à mieux connaître les nouvelles technologies, à fréquenter les bibliothèques, à consulter les revues techniques en rapport avec ses écrits, à s’informer auprès de nombreux spécialistes (ceux qu’il appelle « les Savants ») et auprès de proches, amis ou membres de sa famille, enseignants, chercheurs, ingénieurs, hommes d’expérience. Son monde littéraire était celui des lettres classiques et de la musique classique, et il dut s’investir dans le domaine scientifique et technique avec la mentalité d’un journaliste professionnel. Il faut tout d’abord remarquer que Jules Verne était un auteur de pièces de théâtre et qu’une partie de ce manuscrit comprend de nombreux dialogues qui ne sont pas liés à la science- fiction mais plutôt à des petites scénettes théâtrales. L’ouvrage, écrit en 1860, serait donc plutôt un mauvais roman à l’époque de Victor Hugo, Alexandre Dumas, Gustave Flaubert, Honoré de Balzac, Emile Zola. L’intrigue elle-même reste pauvre et les atermoiements de Jules Verne sur ce nouveau monde soumis à la technologie sont une longue tirade pessimiste sur le futur. Quoi qu’il en soit, il entend situer sa vision à 100 ans plus tard. Il ouvre ainsi le volet de la prédiction du futur. Peut-on prédire le futur ? Prédiction ou anticipation ? Prévision ou prospective ? Prophétie ou Imagination ? Le vocabulaire est large en pratique. Bien que l’on parle bien souvent de roman d’anticipation, nous pensons que dans le cas de ce roman de Jules Verne : Paris au XXème siècle, il s’agit de prédiction, une histoire qui relate des faits qui vont survenir dans un futur daté et non une anticipation. L’anticipation suppose que l’on agisse en conséquence fort de notre connaissance présumée du futur. La prédiction peut conduire à envisager plusieurs futurs possibles et à en choisir un qui paraît plus plausible. Par extension, l’anticipation vise à déduire les conséquences des prédictions du futur ; et la frontière entre les deux mots devient alors ténue. Il y a donc de l’anticipation dans le roman de Jules Verne. « Peut-on prédire le futur ? » est un préalable à la question « comment ? ». Mais, cette dernière question n’a pas de sens s’il n’est pas possible de prédire le futur. Chez jules Verne, la prédiction n’est pas qu’un relevé des avancées techniques, il est également le résultat d’une perception subjective de la société de son époque et le reflet de ses propres états d’âme. Il fait entrer son époque dans une dynamique bien cadrée et la projette sur le futur. Il suit les tracés de cette dynamique et s’en écarte peu. Il en gonflera certains traits comme celui de la domination technique. Une prédiction peut-elle échapper à la personnalité de celui qui la propose ? Chez Jules Verne, son passé, son éducation, son travail d’agent de change (qu’il na pas véritablement choisi et qui n’est pas sa vocation première) ont influencé sa vision globale de l’avenir. Quelles qu’en soit les causes, pessimiste à l’excès, il va complètement noircir cet avenir. Il va réduire pratiquement à néant la place que vont occuper les arts et la littérature classique dans le monde futur. Aucun argument scientifique n’étaye cette projection. C’est une vision apocalyptique, bien qu’elle soit limitée aux arts et lettres. Par contre, il croit au devenir d’un monde technique, envahissant, avec un pouvoir absolu. Il en prédit les conséquences, comme la nouvelle ascension sociale basée sur l’expertise technique. Il étend ce pouvoir de la technologie aux règles d’un nouveau code moral de la bonne société. A sa vision de la domination technologique, Il ajoute de manière visible, la toute-puissance du système financier et capitaliste et la profusion de l’argent aux mains des banquiers. Il établit une relation plutôt réservée entre le capitalisme, la technique et la richesse. Jules Verne lui-même avait une charge à la bourse de Paris et avait une bonne connaissance du système. En 1848 est promulgué le manifeste du parti communiste et en 1867 le premier tome de Karl Marx, Le Capital (livre 1). Critique de l’économie politique. Jules Verne n’est pas un politicien et il n’a peut-être pas lu les écrits de Karl Marx, mais il connaît le monde capitaliste sans pour autant être pleinement conscient de la transformation du monde ouvrier et de ses conditions de travail. Il pointe seulement l’extension du capitalisme en l’associant à la domination technique et au contexte industriel. A cette époque, sa vision du lendemain s’enferme dans le macrocosme parisien et pour l’auteur, c’est celui-ci qui représente l’évolution de la France de demain. Cependant, il intégrera l’Angleterre et les Etats-Unis dans ces romans soit comme décor, soit par les personnages, les Savants, qui participeront aux aventures sur tous les continents. Pourquoi Jules Verne mérite t-il une telle consécration ? L’équilibre entre aventures à rebondissements, fictions technologiquement crédibles, et voyages hors du commun, est la clé. L’époque est en grande transformation et à l’inverse de ce qu’il décrit dans son essai, de nouveaux courants artistiques et littéraires se dessinent. Son époque devient progressiste. Dans le même temps, l’apprentissage de la lecture se démocratise de plus en plus. Ainsi, le certificat d’études primaires est généralisé en 1866. De même, les moyens techniques d’impression évoluent et la presse verra son tirage multiplié par 5 entre 1860 et 1870. L’invention technique dans le secteur de l’imprimerie accompagne cette évolution de l’information. Autre élément de changement, l’information franchit les continents avec le développement du journalisme. Les grands voyages sur d’autres continents se multiplient et les récits de voyages se popularisent. Que l’imaginaire se mélange à la fiction scientifique, est dans l’air du temps. Ce genre littéraire auquel Jules Verne a apporté sa première pierre, connaîtra un second développement 25 ans plus tard avec les romans de H.G Wells (il signe son premier roman en 1895, la machine à explorer le temps). L’histoire du roman sera marquée par le pessimisme qu’il s’agisse de celui d’Aldous Huxley (Le meilleur des mondes, 1932) ou de Georges Orwell (« 1984 », publié en 1949). Puis, ce sera ce que l’on appellera la « HSF ou hard science fiction » basée sur des extrapolations technologiques vraisemblables. La science-fiction gagne le grand public. Citons Isaac Asimov dont le public a connaissance de ses œuvres dans les années 1950’ et plus tard le film 2001 Odyssée de l’Espace de Stanley Kubrick qui est un autre exemple de cette diffusion grand public de la science fiction. Les romans de Jules Verne, parfois publiées en feuilleton dans une revue destinée à la jeunesse jouent un rôle de vulgarisation de la science. Une centaine d’année plus tard, le genre continue à se développer variant l’histoire fantastique comme dans les comtes et légendes et la fureur destructrice d’un futur qui voit le monde disparaître. Dans la grande lignée des projections de notre manière de vivre à long terme, il faut faire une place spécifique à Isaac Asimov qui en 1964, à l’occasion de l’exposition Universelle de New York, fera un tableau des inventions utilisées en 2014, 50 ans plus tard. Il suit la même voie que Jules Verne en s’appuyant sur les nouvelles technologies naissantes. Jules Verne avait-il une méthode de prédiction du futur ? Pour moi, L’intérêt de son premier manuscrit réside dans le cheminement de Jules Verne qui le conduit à construire un scénario du futur basé sur les découvertes scientifiques et inventions technologiques. Cela traduit une conscience nouvelle qui relie la science à la vie de tous les jours et à celle du lendemain. C’est en ce sens qu’il est un précurseur plus qu’un visionnaire. Le siècle des lumières et la révolution industrielle ont donné le coup d’envoi de la civilisation scientifique et technologique. La poursuite des inventions scientifiques et techniques dans la première partie du 19 ème siècle va nourrir les romans de Jules Verne. Il percevra également le développement technique comme impactant les mœurs et la vie sociale, la liberté de parole et de création, l’éducation, les arts et les lettres. Il montrera comment se crée un pouvoir dominant par la technique à travers la nouvelle richesse des banques et autres organismes capitalistes. La méthode de Jules Verne est-elle reproductible ? Il nous faut analyser la projection de l’auteur qui décide de faire un bond de 100 ans, d’en chercher la méthode et d’en tracer les limites. Le roman de Jules Verne : Paris au XXème siècle nous servira de base. Sa méthode repose sur une bonne documentation, un développement de la liaison entre plusieurs éléments : découverte scientifique, progrès technique, application technologique à grande échelle, insertion dans le contexte du quotidien de la population. Le plus souvent, il se contente d’étendre et de généraliser l’application technologique. Le mécanisme de fiction créative qu’il utilise peut se concevoir ainsi : Il existe bien une invention réelle, une invention primaire, avec un brevet ou non comme point de départ. Par invention primaire, nous entendons une invention dont le principe technique unique ou combiné est nouveau et permet un usage qui n’existait pas auparavant (l’ampoule d’éclairage utilisant le courant électrique par exemple). Il fera un choix sélectif d’une technologie et en fera une généralisation, il en projette certaines conséquences sur l’environnement urbain et le mode de vie. Pour cela, il peut l’associer à une finalité ce que nous appellerons principe de finalité sociétale . Cela répondre à un besoin de progrès technique plus performant, gagner en confort social, en puissance économique ou industrielle, gagner du temps de production, gagner en efficacité pour voyager, communiquer, échanger, dominer la nature, etc. Jules Verne, dans ces futurs romans, ne fait pas une priorité de cette liaison entre invention et finalité sociétale pour justifier la généralisation de l’invention. Il peut également prendre en compte l’individualité du personnage central de son roman. Ce sera le cas dans ces autres romans d'aventure. Dans ce premier roman, la technologie de l’air comprimé est mise au service de la société. Cette technologie sert à envoyer rapidement des messages écrits à travers des tubes. Elle était connue et avait fait l’objet d’un brevet en 1854. Jules Verne généralise cette innovation et l’applique à la locomotion des wagons. Il retient le système d’air comprimé pour le transport de la population sur rail. Il souligne ainsi l’importance des transports en commun comme besoin essentiel de son époque. Techniquement, l’air comprimé circule au milieu de la voie dans un tube et tracte le train par liaison électromagnétique entre le disque, un électroaimant inséré dans le tube au milieu des rails, et les aimants fixés à proximité de part et d’autre sur la première voiture. Les premiers systèmes qui ont été développés à cette époque ne furent pas satisfaisants (Tomlinson en 1820 aux USA et Andraud 1830 en France) et cette solution, une parmi d’autres, fut abandonnée. L’air comprimé restera cependant une technologie de transport de courriers et documents à travers Paris (j’ai eu moi-même l’occasion d’envoyer des pneumatiques par le réseau postal parisien dans les années 60’. Il sera abandonné en 1984). L’air comprimé va ensuite connaître une nouvelle jeunesse. L’aérotrain inventé par Jean Bertin dans les années 60’ a atteint la vitesse de 430 km/h en 1974. Il utilise également l’air comprimé en produisant un coussin d’air qui supprime les frottements avec le rail conducteur ; mais le système n’a pas été retenu comme système ferroviaire généralisable. Ce sont les trains à grande vitesse (TGV) qui pouvaient utiliser les voies classiques de la SNCF (Société Nationale de Chemins de Fer) qui ont été préférés. L’air comprimé peut être qualifié de ligne de force technologique. Elle se caractérise par un ensemble de méthodes et techniques qui ont en commun un processus spécifique de solution industrialisable. Elle peut progresser si de nouvelles voies technologiques proches ou combinées permettent de lever des obstacles à son développement. Le coussin d’air fait partie de ce développement. Inventé par un ingénieur britannique en 1952, le premier aéroglisseur sur terre et sur mer connaît un succès mitigé. La société Bertin innove avec un aéroglisseur à jupe souple qui lui permet de circuler sur des terrains inégaux et en mer et relance la technologie. L’aéroglisseur était un gros consommateur d’énergie. Il assurera une liaison transmanche régulière en 25 minutes entre 1970 et 2000 avant d’être abandonné. En 2013, Elon Musk aux USA relance le projet d’un train à haute vitesse, « Hyperloop », qui utilise un tube à basse pression et le coussin d’air. Le coussin d’air sera remplacé par la sustentation magnétique. En 2016 la société Spacetrain tente de relancer un projet d’aérotrain à coussin d’air plus performant. Elle échouera faute de financement. Une ligne de force technologique peut échouer dans son développement. C’est le cas lorsqu’elle rencontre une barrière contextuelle qui intervient pour stopper le développement technologique. Par exemple, le coût de l’énergie nécessaire au fonctionnement, l’infrastructure qui n’est pas compatible et nécessite une adaptation trop coûteuse, le coût financier de substitution de l’ancienne technologie vers une nouvelle technologie, l’impact négatif écologique qui se heurte à la réglementation ou à la population, le risque sanitaire potentiel, …. Une forme particulière de barrière contextuelle peut être lié à ce que les économistes appellent « l’externalité de réseau ». L’utilité (sa valeur d’usage) d’un service et de son support technique augmente seulement s’il existe simultanément un nombre important d’utilisateurs du service. C’est le cas du téléphone qui n’a d’intérêt que s’il y a de nombreux abonnés ou d’un réseau social. C’est le pari de nombreuses applications comme Linkedin, un réseau social professionnel dont la valorisation grandit avec le nombre d’utilisateurs. Cela est également le cas pour les jeux vidéo sur internet qui n’ont de valeur que s’il existe des joueurs en ligne. La barrière contextuelle peut également être psychologique ou culturelle à la source même de l’invention. L’industriel qui ne croit pas dans la nouvelle technologie est une histoire classique. Il met en avant la prudence et le moindre risque économique. Il justifie son attentisme par des profits existants encore pour longtemps. La barrière peut résulter simplement d’une demande trop faible pour constituer un marché rentable. En 1977, un enseignant, a proposé à ces étudiants en gestion un cas d’école qui s’appelait « la voiture à eau ». Dans un premier temps, il s’agissait de tester pédagogiquement le cas auprès d’un petit groupe comme c’était l’usage. Le but du cas était d’envisager les chances de succès de ce véhicule sur le marché automobile. Bien que provocateur, derrière le titre, il y avait en fait le développement d’une voiture à hydrogène non polluante car rejetant de l’eau. La voiture à hydrogène transforme le dihydrogène et le dioxygène en pile à combustible (1832) qui fournit une énergie électrique (et non mécanique) en rejetant de l’eau. Le travail des étudiants a été intéressant à plus d’un titre. Dans un premier temps, la plupart n’ont pas considéré qu’il s’agissait d’un cas d’école sérieux parce que trop éloigné de la réalité du moment. Il leur paraissait acceptable simplement comme exercice de style. Par ailleurs, le travail demandé n’étant ni financier, ni industriel, l’objectif s’est concentré sur l’acceptance par le public à un coût supposé compétitif à terme (sans considérer le coût plus élevé de départ) et à envisager les arguments et actions développées par les concurrents pour protéger leur marché. Le résultat final a été surprenant car de nombreux étudiants ont été d’abord soucieux de développer un ensemble d’arguments déniant l’idée qu’une voiture propre non polluante était un argument de vente. Dans un deuxième temps, ils ont développé plusieurs arguments négatifs soit en mettant en avant la faiblesse des infrastructures permettant le rechargement, soit l’absence d’intérêt technique devant les progrès de la motorisation de plus en plus économique et de plus en plus propre chez les fabricants d’automobile, soit en mettant en avant le coût nécessairement plus élevé dans la phase d’introduction sur le marché ou encore plus simplement soulignant une perception négative dans l’opinion d’une utilisation dangereuse de d’hydrogène, et enfin un conservatisme sociologique important des acheteurs potentiels. Très peu ont envisagé que des industriels pourraient choisir de développer cette technologie à hydrogène. Aucun n’a suggéré qu’elle pourrait être une concurrence sérieuse de la voiture électrique (utilisant des batteries) et que la vague écologiste s’amplifierait au point de modifier les choix du secteur automobile. Il faut constater que leur point de vue était justifié. La pression écologiste peine à modifier les habitudes et, 40 ans plus tard, la voiture à hydrogène comme la voiture électrique est très loin de dominer le marché (moins de 5%) même si les prémices d’un développement semblent se dessiner et montrer quelques signes annonciateurs. Jules Verne exploite l’invention technologique, en fait une description qui vulgarise l’invention mais ne se soucie pas de la barrière contextuelle. Il fera de même dans la plupart de ces autres romans. Quelles sont Les inventions primaires en 1860 ? Recherchons les inventions techniques primaires qui existent ou préexistent en 1860 et que nous retrouverons en 1960. L’époque est très riche en découvertes et inventions avec une accélération certaine au 19 ème et 20 ème siècle. Nous n’allons pas y arriver car elles sont trop nombreuses mais donnons quelques exemples de cette richesse inventive. Ainsi la voiture « automobile » semble répondre à notre définition d’invention primaire existante dans les années 1860 et suivantes. Elle existait sous une forme initiale de machine à vapeur. La première automobile à vapeur était un fardier pour tracter les canons (Cugnot 1769). En 1863, Etienne Lenoir fait rouler sur 11 kilomètres, une hippomobile avec un moteur à gaz de houille. Durant cette période, l’invention de Siegfried Marcus (1864) propose un premier modèle de moteur à essence. Il faudra attendre 1880 pour que l’automobile se dote d’un moteur à explosion. Jules Verne cherchait à connaître le détail des inventions que les diverses revues décrivaient. Nombreux sont celles qui ne furent jamais commercialisées ou exploitées mais c’était une source pour l’écriture de ces romans. Il reste essentiellement dans le domaine de la mécanique concernant l’air, la terre et la mer. Il a ainsi pioché dans les écrits de l’époque sans semble-t-il chercher une méthode générale de prédiction du futur mais plus pour produire un état de l’existant qu’il pourra retenir. On ne sait pas s’il était au courant du projet de voiture à essence de Siegfried Marcus (1864) mais dans le même temps, Il cite la machine de Lenoir (p20), moteur à explosion à 2 temps alimenté par du gaz de houille. Elle a fait l’objet d’un brevet en 1860 et roulera en 1862. De nombreuses inventions primaires que l’on retrouve en 1960, auraient pu être incluses dans son manuscrit. On peut en citer quelques unes (sans ordre particulier). L’invention de la machine à coudre (Thimonnier, 1830 - Singer 1851). Le télégraphe électrique. Il sera perfectionné et la transmission de messages et de dessin est déjà en route en 1860. La photographie, perfectionnée depuis l’invention de Niepce 1826 et de Daguerre 1839. L’ampoule électrique à incandescence, avec l’invention de Lindsay en 1835. Le lave-linge fait déjà l’objet de plusieurs brevets Schaeffer (1767) Briggs (1797). La télévision sera d’abord inspirée du pantographe de Caselli dès 1856. La machine à faire du froid connaît déjà plusieurs réalisations (Perkins en 1835). Le mortier armé (joseph – louis Lambot brevet du ferciment en 1855) précurseur du béton armé et du béton préfabriqué. Cette liste est loin d’être exhaustive et plus d’une centaine pourrait être ajoutée. De nombreuses autres recherches en cours 1860 se concrétiseront quelques années plus tard par des développements techniques. Citons en exemple, la radio (qui reposera sur des ondes électromagnétiques appelées ondes Hertziennes du nom de Hertz -1877), les rayons X (1895), l’avion à moteur (1890) mais faisant l’objet de recherches bien avant, la bouteille isotherme (1893) plus connu par la commercialisation de l’invention par les établissements Thermos), l’ordinateur (prolongation des machines programmables et calculateurs, Babbage 1833), … Jules Verne peut alors essayer d’utiliser cette invention primaire et faire jouer son imagination pour qu’elle puisse être intégrée dans un scénario réaliste et généralisable. Il peut également croiser cette invention avec une autre existante ou potentiellement existante. Pour se faire, il s’autorise à éliminer certaines barrières technologiques ou faire abstraction de certains obstacles qui demeurent mais qui semblent accessibles à la science ou à la réalisation industrielle (production technique de masse susceptible de trouver un coût abordable en face d’une demande conséquente). Selon les analystes de Jules Verne, les erreurs scientifiques ou les incohérences techniques sont également courantes dans les romans que Jules Verne écrira par la suite. Dans sa méthode, Il va généraliser et prolonger certaines technologies existantes. Cela deviendra une ville équipée de lanternes électriques à filament, ou encore un système de télégraphie, une automobile avec moteur au gaz, un chemin de fer métropolitain en hauteur sur charpente métallique, des machines à calculer complexes, une force motrice de traction à air comprimé, etc... L’invention primaire est elle-même souvent dépendante d’une découverte scientifique et de ses applications. Il est difficile de projeter le moment du passage du concept scientifique à la technologie et son champ d’application. Les applications dérivées peuvent se chiffrer par million. Dans ce premier roman, Jules Verne ne s’aventure pas dans ce domaine mais ne retient que des inventions primaires connues à son époque. Il sera précis et documenté et pourra appuyer ses propos avec des calculs et autres démonstrations. JV aurait-il pu inventer le train à sustentation magnétique ? oui Il a utilisé l’aimantation pour tracter un train. Il aurait pu imaginer que l’on maîtrise l’aimantation répulsive et l’appliquer pour obtenir la réduction des frottements. Le besoin de locomotion était là, l’invention primaire et la ligne de force technologique (électro aimant en 1825 – William Sturgeon) également mais la ligne de force technologique répulsive probablement loin des préoccupations industrielles à cette époque. La sustentation d’une masse comme un train était probablement trop peu crédible pour être une piste imaginaire sérieuse. Il faudra attendre 1914 (Emile Bachelet) et 1922 (Hermann Kemper) pour que les recherches sur le train à sustentation magnétique fassent l’objet d’attention et de recherches. Par la suite, de nombreux essais vont aboutir à la mise en service de trains à sustentation magnétique en Allemagne et au Japon. JV aurait-il pu inventer le smartphone ? oui. Il s’agit d’un concept évoqué dès 1852, Charles Bourseul décrit les grands principes du téléphone. La télégraphie existe y compris la télégraphie photographique (cité par Jules Verne, p20), le concept répond à des besoins primaires, au moins pour les militaires, ce qui sera plus tard le premier accélérateur contextuel du développement d’Internet. Il est possible alors de faire une première projection imaginaire qui est basique : un téléphone sans fil capable d’émettre et de recevoir le son et l’image et que l’on peut tenir dans sa main ; mais l’espérance de réussite de cette technologie est encore faible en 1860 car l’invention du téléphone piétine en Europe. Il était toutefois possible d’imaginer de nombreux produits dérivés, sans pour autant prédire ceux qui vont avoir du succès. JV aurait-il pu inventer la photographie couleur ? oui. Entre 1840 et 1860, des essais sont réalisés sans validation des procédés La première photographie couleur utilisant le procédé de Maxwell fut réalisé par Thomas Sutton en 1861. Elle est encore loin d’être technologiquement d’une qualité suffisante mais elle traduit bien la tendance à chercher des solutions pérennes et à lever les obstacles technologiques. JV aurait-il pu inventer le Laser ? oui. Le concept d’amplification de la lumière est évoqué à cette époque. Dès 1822, a lieu une expérience au sommet de l’arc de Triomphe ; une lumière produit par l’électricité est vue à 32 km (on utilisait des charbons pour produire un arc électrique). Pour cela, les lentilles de Fresnel (un physicien français) vont concentrer la puissance la lumière. L’émission d’un faisceau lumineux directionnel, reste une préoccupation pour la sécurité maritime et un progrès possible dans la conception du phare maritime. L’accélérateur contextuel est bien là mais la ligne de force technologique ne débouche pas à cette époque. La théorie corpusculaire de la lumière domine. Si Maxwell a bien en 1865 émis une théorie ondulatoire qui sera confirmée, il faut attendre 1917 pour que la théorie quantique précise la notion de quanta de lumière connu à partir de 1926 sous le nom de photon. Il faudra attendre 1960 pour produire un pinceau de lumière par émission de photons en grand nombre et de même direction. Cet instrument va être la source d’une nouvelle ligne de force technologique. Jules Verne aurait-il pu imaginer que l’énergie lumineuse puisse découper avec précision une pièce de tissu ? Non , car la lumière en 1860 se conçoit intellectuellement dans un contexte d’éclairage (voir) mais pas dans le contexte de force (découper). Il est facile de multiplier cette approche tant est riche le progrès technologique de l’époque. En ce sens, devant tant d’abondance, Jules Verne a l’embarras du choix pour un roman d’aventure éducatif. C’est l’objectif qui figure dans son contrat. Il va illustrer le futur plus que le prédire. Quelles sont les limites de la méthode de l’auteur ? Dans son roman, en 1960, Paris brille par ses 100 000 lanternes électriques qui utilisent le mercure sous haute pression, procédé inventé par le britannique Way en 1860. Les 20 000 becs de gaz de 1860 sont devenus des lampadaires électriques à vapeur de mercure en 1960. En fait, c’est en 1910, que les lampadaires électriques succèdent aux réverbères à gaz. Ce sont les ampoules à incandescences (et non à mercure) utilisant le processus inventé par Edison (1879). Les réseaux électriques à courant continu vont se développer dans les grandes villes. Toutefois, c’est le courant alternatif qui permettra le transport à grande distance en évitant les chutes de tension (Tesla, 1888). Cela va permettre cette substitution de masse. En 1960, il y a environ 48 000 points lumineux à Paris. Les derniers réverbères à gaz disparaissent. En fin de compte, Jules Verne exploite l’invention qu’il repère et en fait la route principale du futur. Il ne cherche pas à construire un arbre de progrès technique et les grappes d’invention qu’il peut générer. Ce n’est pas le but. L’invention sélectionnée est une réalité intemporelle. Les découvertes scientifiques et techniques qui vont se succéder ne peuvent modifier ce scénario linéaire. Jules Verne exploite assez peu le processus de fertilisation croisée . La fertilisation croisée scientifique et industrielle n’est autre qu’un puzzle d’inventions et de découvertes ayant leur origine dans les inventions primaires. Leur combinaison fait progresser plus rapidement à la fois la science et la technique. On notera cependant une évocation de la transmission d’images par le téléphone. Il combine ainsi l’invention du téléphone (1861) et du daguerréotype (1839). De même, l’auteur envisage peu les ruptures technologiques nouvelles qui pourraient survenir dans les cent ans à venir. Une rupture technologique, c’est une autre solution technologique alternative qui s’impose par des résultats supérieurs sur une ou plusieurs dimensions (économique, industrielle, mercatique). La démarche de Jules Verne consiste plutôt à développer en profondeur une technologie existante sans en envisager de nouvelle. Par exemple, le moteur à combustion sera remplacé par le moteur thermique à explosion, ou encore la photographie argentique qui sera remplacé au siècle suivant par la photographie numérique. L’évolution rapide des découvertes scientifiques et techniques dans la deuxième partie du 19 ème siècle va nourrir la projection de Jules Verne. Il fera un choix sélectif en imaginant une généralisation de certaines de ces inventions et en projetant certaines conséquences sur l’environnement urbain. Il percevra également le développement technique comme impactant les mœurs et la vie sociale, la liberté de parole et de création, l’éducation, les arts et les lettres. Il montrera comment se crée un pouvoir technocrate à travers la nouvelle richesse des banques et autres organismes capitalistes. JV développe un des scénarios crédibles du prolongement technique. Il ne peut être parfait car les découvertes scientifiques et techniques qui vont se succéder vont modifier ce scénario. De même, sa vision du capitalisme dominateur n’est pas absente des « trente glorieuses « et des oppositions et contre-pouvoirs des organisations sociales. Se projeter dans le futur demande de réunir plusieurs facteurs non seulement scientifiques et techniques mais également industriels, sociologiques, économiques et marchands pour savoir si de telles inventions peuvent avoir un impact sur la société et le mode de vie. Pa exemple, Sa projection du transport de voyageurs reflète assez bien une vision centenaire des attentes et des besoins d’une société en évolution. Dans les ouvrages qui vont se succéder, il évoquera bien souvent des inventions existantes qui vont se perfectionner comme le sous marin autonome (USS Alligator, 1862, le plongeur, 1863), la machine volante (1842-1870), la projection holographique (fantôme de Pepper, 1862, etc.) Il décrit sa vision de la société parisienne. Sa vision d’un capitalisme dominateur reflète assez bien l’évolution des courants de pensée de l’après 1860. Par ailleurs, ce n’est pas l’objectif de ces romans d’imaginer les conflits militaires du 20 ème siècle et les nouvelles idéologies qui vont se faire jour ainsi que la fin des grands empires et la décolonisation. Jules Verne ne se contente pas de projeter sa vision du tout technologique mais décrit la disparition du monde littéraire et l’appauvrissement de la relation sociale. Dans le scénario très pessimiste du monde littéraire en 1960 et plus encore du monde des arts et des lettres qu’il présente, Il n’est plus dans la même démarche. Il projette ses propres frustrations. Il occulte l’impact positif de la technique qui va permettre d’élargir les moyens de conservation et de diffusion de la culture passé. Il écarte le rôle même de la technique dans la création d’une culture nouvelle plus populaire. De même, il n’a jamais envisagé la poursuite d’une forme nouvelle de mécénat envers les arts et lettres qui a toujours été associé à la richesse privée et publique. Quant à l’art moderne (une ligne de force déjà présente à l’époque) et à l’art populaire, il occulte dans sa conscience tout scénario alternatif. En 1863 c’est la date du célèbre tableau de Manet « le déjeuner sur l’herbe ». Il est le signe d’une rupture avec le courant de l’époque - le tableau sera exposé en 1863 au Salon des Refusés -, et va préfigurer les autres et nombreux « déjeuners sur l’herbe » - comme celui de Claude Monet- qui jalonneront l’évolution historique de l’impressionnisme, de l’art moderne et de la peinture. Il est clair que de nombreux auteurs de science-fiction procèdent à la manière de Jules Verne par une focalisation sur une ou plusieurs avancée scientifique et/ou technologique. Leur développement dans divers contextes va permettre de créer un roman de science-fiction. Ainsi Jules Verne était relativement prudent dans la prédiction du futur en figeant à 100 ans l’évolution des technologies en cours. En procédant à quelques substitutions, le scénario d’ensemble n’apparaît pas dénué de bon sens. Il sera en décalage avec la réalité ne serait-ce que parce que le souhait, le désir, le rêve ne date pas la réalisation. La science-fiction a cet avantage, qu’elle peut combiner dans le désordre chronologique, les avancées technologiques. Ne pouvant dater les évènements technologiques, la prédiction du futur devient une image figée à l’année 1960 qui intègre avec plus ou moins de bonheur les avancées technologiques des cent dernières années. L’accélération des découvertes et inventions depuis 1860 est continue et il devient difficile de prévoir les conséquences de ces dernières. Il n’est pas visionnaire, il est précurseur du genre et recouvre le futur avec plus ou moins de réalisme. En 1947, l’homme franchit le mur du son à bord d’un avion-fusée ; C’était la première fois. En 1953, utilisant des bouteilles d’oxygène, l’homme atteignait le sommet de l’Everest, le plus haut sommet du monde ; C’était la première fois. En 1969, l’homme mettait le pied sur la lune. C’était la première fois ; En 2012, la sonde voyageur 1, un satellite construit par l’homme est dans l’espace interstellaire ; C’était la première fois. Même si l’usage de la technologie est pressenti dans un monde futur, sa datation reste un exercice de divination. Jules Verne est romancier et les retombées des inventions ne font pas partie de son champ d’exploration. D’autres records sont indirectement liés à l’évolution technologique. Par exemple, En 2009 l’homme parcourait 100 mètres à la nage en moins de 46 secondes 94 centièmes ; c’était la première fois. Ce résultat est en partie du au progrès des connaissances dans le domaine de la glisse et à l’utilisation d’une combinaison en latex qui sera par la suite interdite pour la compétition sportive. C’est en 1842, que Charles Goodyear découvre le procédé de vulcanisation qui permet de rendre le caoutchouc naturel (latex) élastique. Comment faire la liaison en 1860 ? L’accélération des découvertes scientifiques et de leur prolongement technologique rapide permet-il encore de prédire avec un horizon de cent ans ? Jules Verne a tenté des prédictions à 100 ans en 1863, Isaac Azimov à 50 ans en 1964 (dans un article du New York Times, il imagine 2014). Le processus d’ Isaac Azimov est similaire à celui de Jules Verne. Inspiré par les prototypes présentés à l’Exposition Universelle de 1964, il en déduit des prolongements et applications techniques qu’il insère dans sa vision de la société de demain. Curieusement, comme Jules Verne, il va reprendre la technologie de l’air comprimé mais surtout, il donne un cadre, plutôt pessimiste comme Jules Verne. Pour lui, la technologie dominante envahira encore plus la société avec ses conséquences négatives. Il écrit « L’automatisation sera généralisée et le travail laissera place à l’ennui… La psychiatrie sera de loin la spécialité médicale la plus importante en 2014 ». Sensible à la croissance démographique, il construit un scénario d’ensemble inquiétant avec une urbanisation massive. La pression démographique va forcer l’urbanisation croissante des déserts, des régions polaires et la colonisation des plateaux continentaux (sous la mer). Mais il ajoute « La technologie ne peut plus continuer à suivre la croissance démographique ». Dans cet article, Il prédit quelques avancées technologiques qu’il généralise dans le domaine du logement, des transports et des communications, de la nourriture. Comme Jules Verne, le rapport positif à la nature est en dehors de son scénario « Une pensée qui me traverse l’esprit est que les hommes continueront à fuir la nature pour créer un environnement plus à leur convenance ». Raymond Kurzweil est un ingénieur, expert en programmation linguistique et en intelligence artificielle. Il est considéré comme un futurologue dans le domaine des nouvelles technologies. Comme Jules Verne, il prédit que la technologie va dominer le monde ajoutant qu’en 2099, l’homme sera soumis aux machines et que cette soumission à la technologie se fera si rapidement que l'Humanité telle qu'on la connaît sera appelée à disparaître, soit pour céder la place aux machines, soit pour fusionner d'une manière ou d'une autre avec elle. Il était temps que j’écrive ce blog ; mais est-ce bien moi qui écrit ou un cerveau gavé du prolongement de toutes les connaissances accumulées sur Internet ? Il apparaît clairement que la méthode de Kurzweil est un simple prolongement technologique sans analyse de l’environnement et des obstacles. Il prédit, avec du bon sens, une convergence des technologies nouvelles, les NBIC : Nanotechnologies, Biotechnologies, Intelligence artificielle et sciences Cognitives. Il pose comme principe la soumission de l’humain à ces dernières. Elles ne sont plus des outils qui libèrent l’homme de taches ingrates mais deviennent des addictions qui asservissent l’humain. Imprégné du développement de l’Intelligence artificielle qu’il élève au rang d’accélérateur contextuel de la décennie, il retient notamment dans ses prédictions la généralisation des voitures autonomes en 2019. Ce ne sera pas la réalité. En fait, Le concept de voiture autonome est très ancien et date des années 1970’. Il apparaît que la date de 2019, prédit par le futurologue, était très optimiste pour une conduite autonome dans les villes. D’autres évolutions ont été imaginées comme des taxis automatisés qui suivraient les couloirs de bus pour se rendre d’un point à un autre ou des couloirs de circulation pour voitures autonomes électriques. La concernation de l’industrie automobile traditionnelle n’est pas aussi évidente. Elle reste prudente et ne pas s’engager dans cette voie lui permet de retarder la concurrence nouvelle qui arrive sur le marché de l’automobile. Google et Tesla vont-ils remporter la bataille ? En 2019, La voiture autonome se heurte à de nombreux obstacles juridiques, technologiques (environnement non approprié), psychologiques, écologiques qui n’ont pas été correctement analysés par l’auteur et qui ralentissent son implantation. A Paris, il y a plus de trottinettes électriques qui permettent de se déplacer que de voitures autonomes. Dans un autre domaine, Il n’a pas tort de dire que le temps passé derrière l’ordinateur va augmenter car c’est déjà le cas. La communication directe interpersonnelle diminue au profit de la communication par intermédiation. Cependant, le nombre de personnes avec qui se réalise une intermédiation est grandement multiplié: : La famille, les amis, les collègues, les membres du groupe d’appartenance pour le sport, les compagnons de loisirs, les autres qui connaissent les autres qui sont des « relations ». La communication est devenue, de facto, multi individuelle. Certaines de ses prédictions sont surprenantes et purement subjectives. Ainsi, son anticipation pour 2039 que le monde virtuel sera pornographique à 80% reste une projection peu crédible de l’auteur ou tout au moins imprécise dans ce déclaratif (80% de quoi ? du temps passé sur le net ?). Il est plus probable que ce sera le télétravail, la recherche d’information, le télé enseignement, le téléachat qui constitueront le principal contenu regardé sur la toile. La pornographie est source de rentabilité compte tenu des interdits de la société occidentale mais son inventivité reste limitée. La croissance des autres contenus sera plus importante selon moi. Également, on peut citer cette prédiction de Kurzweil « La menace posée par les agents pathogènes génétiquement modifiés se dissipe définitivement d'ici la fin de cette décennie ». En 2020, La pandémie COVID19 met à mal l’ensemble de la planète en causant plus de 1 800 000 morts cette année là. Et les scientifiques n’ont toujours pas trouvé de traitement. Seule la vaccination qui permet de produire des anticorps est présenté comme unique solution. Raymond Kurzweil en voulant dater ces prédictions s’enferme dans un processus difficile à maîtriser. Le principal défaut de ces prédictions reste cependant celle de la domination absolue des nouvelles technologies qui écarterait toute volonté humaine de convivialité et de sentiment émotionnel et néglige l’irrationalité humaine. Or cette dernière est constitutive de la survie du Sapiens. L’insoumission, la tricherie, la malhonnêteté accompagne l’humain. Le hacker sera l’ennemi de l’homme-machine. Qui va gagner ? En 2020, les prédictions pourraient avoir un sens à l’horizon de 25 ans seulement. Prédire le futur à 100 ans sur la base de la seule technologie devient une aventure très incertaine qui le sera de plus en plus. Ajouter un scénario de projection politique économique et social en fera au mieux une idéalisation bienheureuse ou une apocalypse. La prédiction reste un parcours d’obstacles à franchir même si l’on cherche à développer une méthode rigoureuse. Les différentes méthodes prospectives qui probabilisent des scénarios contrastés ou encore la méthode Delphi basée sur des experts ne peuvent pas être prises au pied de la lettre. Elles ne sont que des indices du futur. Le centre de recherche Futuribles s’inscrit dans cette perspective. Il publie en 2020 un rapport (Rapport Vigie) qui se projette à 20-30 ans et expose une vision de ruptures plausibles apportant des transformations majeures. Il part d’une base de 16 scénarios possibles de rupture (et 50 esquisses). Il suggère des routes essentielles en retenant six trajectoires d’évolution mondiale. Prudent, il dresse un vaste panorama mais laisse au lecteur le soin de faire son propre choix. Prédire le futur nécessite un cadre propice à cet exercice . Jules Verne se devait d’être crédible à la demande de son éditeur et cela explique certaines limites volontaires mais au-delà de ce choix, Jules Verne aurait-il pu imaginer qu’un de ces personnages envoie par téléportation un bouquet de fleur du champ de mars au village d’Auteuil. Pour qu’il l’écrive noir sur blanc, il aurait fallu qu’il franchisse des obstacles sérieux pour faire accepter son manuscrit. Que faire si : Le thème retenu n’effleure pas la conscience humaine . Il ne fait pas partie du rêve ou du fantasme, de l’art ou du divertissement et il n’est pas pris en compte dans un quelconque processus technologique à court comme à long terme. Hors de portée de la conscience, il ne peut être décrit. Imaginer pouvoir regarder en ombre chinoise les os de sa propre main sur une plaque photographique (radiographie) était probablement hors du champ de conscience de l’humain en 1860. La découverte du nouveau rayonnement électromagnétique par Röntgen en 1895 était si nouvelle que le scientifique l’appela rayon X. Or le rayon X n’est à la base qu’un jet de la lumière au delà de l'ultra violet. Les mots, le vocabulaire et les concepts n’existent pas . Et il n’est pas possible de les inventer. Dans le domaine de la science, le vocabulaire fleurit tout autant que les paradigmes. Chaque jour, il faut inventer des dizaines de mots nouveaux. Une bonne partie des nouveaux paradigmes vient des révisions de connaissances acquises par des découvertes précédentes mais comment projeter une littérature futuriste lorsque le nouveau concept n’est pas encore vocabularisé. On pourrait procéder par un imaginaire laborieux en explications mais qui perdrait de son attractivité sauf à le romancer - ce que font les romans de science-fiction-. On pourrait inventer un vocabulaire nouveau mais instable et éphémère s’il n’est pas relayé rapidement par une caution scientifique. La vocabularisation n’est pas suffisante pour construire une prédiction du futur. Par exemple , un trou noir (Black Hole) est défini comme un objet céleste si compact que l'intensité de son champ gravitationnel empêche toute forme de matière ou de rayonnement de s’en échapper. Ce vocabulaire, propre à l’astrophysique, se diffuse dans les années 60’ soit 100 ans après le roman de Jules Verne. Il fera le bonheur des écrivains de science-fiction et de leur imagination. Il ne débouche pour le moment sur aucune ligne de force technologique et échappe donc à toute prédiction d’une invention technique future. Notons que ce vocabulaire est inventé par les scientifiques mais pas par les auteurs de science -fiction. Le thème est si peu crédible qu’il est dénié et écarté . Ainsi Wilkipédia indique que le terme téléportation a été documenté dès 1878 en évoquant le transit d’un bout à l’autre d’un conducteur électrique d’un être vivant. Toutefois, cette locution ne fera l’objet d’une utilisation formelle qu’en 1931 comme imaginable et sera reprise dans les romans de science-fiction. La prédiction du futur suppose une ouverture d’esprit. Mais comment savoir si celle-ci ne nous conduit pas dans le champ de l’imaginaire ? La préoccupation de l’auteur est sélective et donne une vision très partielle du futur. Les raisons de l’auteur peuvent être multiples Ainsi Jules Verne écarte de son champ d’invention technologique le progrès médical et la distribution moderne. Par contre, il introduit le commerce mondial et le transport maritime de marchandises ouvrant un gigantesque port sur la Seine. La ligne de force technologique est considérée comme allant vers une impasse dans l’horizon de prédiction. Cette dernière affirmation dépend en effet de la conviction de l’auteur. Il écartera toute prédiction à laquelle il ne croit pas. Ainsi Dans un article paru en 1928, l’astronome Charles Nordmann cite les résultats d’une enquête du Daily Mail sur les progrès nouveaux à 30 ans. Parmi ceux-ci, il y a la prédiction de l’envoi d’un projectile propulsé par de la poudre dans la lune par une fusée. Charles Nordmann démontre que cela n’est pas possible en raison du poids excessif de poudre explosive qui serait nécessaire. La réalité sera différente puisqu’en 1968, 40 ans plus tard, la NASA est prête à envoyer une fusée habitée vers la lune et le fera. Pourquoi est-il si difficile de prédire l’avenir ? Une invention ou une découverte est associée à un déroulé qui prend sa source dans un besoin humain. Cette conscience du besoin est une première étape qui relève de l’évolution de l’homme pour s’adapter et maîtriser son environnement. Plus la motivation est forte, plus elle débouchera sur des résultats. Mais la motivation humaine n’est pas la garantie d’une prédiction réaliste du futur. Elle est seulement un indicateur de direction Prenons quelques exemples : Le réfrigérateur domestique : C’est une machine à faire du froid dont rêvait certainement François Vatel (organisateur de fastueux banquets sous Louis XIV). L’homme semble avoir pris conscience de ce besoin, il y a bien longtemps ? On sait que dans l’antiquité, certaines populations transportaient de l’eau dans les grottes en altitude en hiver pour avoir des blocs de glace en été. L’invention du sorbet de glace comme friandise alimentaire remonte également à la nuit des temps avec un mélange de neige et de fruits. Si certains procédés à base de sel existaient déjà pour abaisser le point de congélation de l’eau, si les glacières permettaient de conserver la glace naturelle, la machine industrielle à fabriquer de la glace n’apparaît pas avant la percée technologique du 18 ème -19 ème siècle. Le principe technologique est daté de 1748 (machine de William Cullen). D’autres machines expérimentales voient le jour durant le 18 ème siècle. Une ligne de force technologique va se constituer pour obtenir au 19 ème siècle un procédé rentable de réfrigération industrielle. Tout processus de réfrigération comprend au minimum quatre éléments, l’évaporateur, le condenseur, le compresseur et le régulateur de flux. L’amélioration de cette ligne de force est le résultat de recherches par de nombreux ingénieurs durant toute cette période (arbre de progrès technologique). Avec le même principe technologique ce n’est qu’au début du 20 ème siècle que la fabrication industrielle de glaces se substitue au commerce de la glace naturelle et que la réfrigération industrielle prend de l’ampleur. Elle ne s’imposera que lorsque son coût deviendra compétitif (barrière contextuelle) et que l’urbanisation fera disparaître par contrainte architecturale le cellier qui conservait les aliments. (Accélérateur contextuel). Pour prédire le réfrigérateur domestique en 1960, Jules Verne aurait dû soit maîtriser ce déroulé soit considérer que dans la liste des besoins ménagers dans un Paris urbanisé, la machine domestique à produire du froid et des glaçons allait devenir un équipement accessible et indispensable. C’est beaucoup. Le fer et le ciment : Qui va l’emporter dans le futur ? Le ciment est un liant hydraulique qui agit comme une colle entre grains de sable ou granulats. Son industrialisation date en France des années 1830 (famille Pavin de Lafarge) après les progrès dans la maîtrise de l’hydraulicité (Louis Vicat en 1818) et l’invention d’une recette industrielle - le ciment Portland par Joseph Aspdin en 1824- Dans le même temps, l’ingénieur Gustave Eifel se fait connaître en 1858 avec la passerelle de Bordeaux qui est une grande passerelle ferroviaire de 500 m en charpente métallique. C’est le début du succès qui ne fera que s’amplifier. Il existe donc là deux lignes de force technologiques qui permettaient à Jules Verne d’imaginer Paris en 1960. JV décrit bien l’accélérateur contextuel du besoin de construire en hauteur des grands immeubles et des grandes passerelles dans un milieu urbain de haute densité. Le ciment et le fer étaient connus des grandes civilisations mais avec le développement du peuplement, de l’habitat et des transports, le besoin de construction se développe. Il sera au cœur du futur de Paris. L’auteur fait le choix de la charpente métallique qui s’est avéré avoir un développement international considérable. Cependant, une invention nouvelle, le béton armé va modifier le paysage futur. Si on en attribue l’idée à un jardinier (en 1845) qui dépose un brevet sous le nom de « ferciment ». Il sera perfectionné par plusieurs ingénieurs et deviendra une alternative à la pierre naturelle dès 1920. En 1960, on peut estimer que deux tiers des constructions utilisent le béton de ciment à la place de la pierre naturelle. Ce nouvel environnement architectural n’a pas été retenu par JV. Dans le mécanisme de vision du futur de JV, certaines options sont privilégiées. On peut généraliser ce mécanisme de pensée sélective et dire que les scénarios de prédiction du futur dans leur processus simple relèvent du système électif de l’auteur. Lorsqu’il existe deux routes technologiques , prédire le futur devient beaucoup plus complexe. Dans ces cas à plusieurs scénarios, Jules Verne interroge les experts, les savants de l’époque pour mieux connaître et comprendre la technique mais c’est lui qui retiendra le scénario dans sa vision du futur. C’est lui le futurologue et non les experts. Il exclut la date d’arrivée de nouvelles technologies qui pourrait venir modifier en profondeur le scénario qu’il a retenu. Ce choix n’est pas celui d’un scientifique qui doute mais celui d’un écrivain qui prédit la vision du futur à un moment daté de l’histoire. JV a privilégié le gaz d’éclairage (gaz de houille) comme combustible (initié en 1804) pour le développement des moteurs de voiture à combustion qu’il appelle les gaz-cabs. Un moteur à deux temps est réalisé par Etienne Lenoir en 1859. A cette période, le pétrole a bien été découvert, mais il faudra attendre l’invention du carburateur par Siegfried Marcus en 1865 et le brevet de Rudolf Diesel en 1892 qui va donner une autre solution technologique pour enflammer le carburant par auto-compression. La ligne de force technologique du moteur à combustion a bien été identifié par JV mais il n’explore pas les branches de l’arbre de progrès technologique qui se succèderont quelques années plus tard. Dès cette époque, il aurait pu imaginer un moyen de transport individuel avec un moteur thermique sans pour autant pouvoir imaginer avec précision les caractéristiques de la voiture qui circulera en 1960. Il aurait pu en dessiner une vague silhouette sans en déterminer les perfectionnements et la vitesse de circulation. Soyons honnêtes. Comment aurait-il pu imaginer une Alpine de Renault dépassant les 200 km/h et atteignant les 100 km/h en moins de 5 secondes. Assurément, La compétition sportive est un accélérateur contextuel. JV ne l’évoque pas. Elle permet de valoriser les inventeurs et d’inciter à innover technologiquement. En 1895, Paris-Bordeaux-Paris sera la première compétition automobile. Etudier la liste des découvertes et inventions, qu’elles soient majeures ou dérivées, entre 1860 et 1960 est une tache impossible car c’est par milliers qu’il faut compter. Pourquoi sont-elles si nombreuses ? La réponse est mathématique. Il existe un jeu de loterie qui tire au sort un numéro gagnant Ce jeu vous demande de choisir 5 numéros différents et 2 chiffres additionnels. Il s’appelle Euro millions et comporte 116 millions de combinaisons différentes. Vos chances de perdre seront la règle. A l’inverse, vous souhaitez inventer une nouvelle recette pâtissière que personne n’a encore inventé. Je vous garantis que cette-fois ci, vous serez gagnant à coup sûr. De la farine, du lait, de l’eau, du sucre, de l’œuf sont 5 éléments qui vont vous permettre de réaliser mille et une recettes si vous avez un bol pour le dosage désiré, une fourchette et une cuillère, de la chaleur et du temps. Plongez-vous dans votre livre de cuisine et vous serez surpris du nombre de recettes déjà inventées sur cette base. Je ne sais pas si la votre sera comestible. Un survol de la genèse des découvertes et inventions nous permet de dresser également plusieurs constats. L’invention de l’instrument ou de l’outil fait intégralement partie du processus de découverte scientifique . Nous distinguons l’outil qui a pour but de fabriquer et l’instrument qui a pour but de voir, mesurer, calculer, … Il permet de transformer l’observation en information intelligible. Une revue des instruments nouveaux du XVIème et XVIIème siècles associés aux découvertes montre que l’un ne va pas sans l’autre. La lunette astronomique, le microscope, le chronomètre de précision, le thermomètre, le baromètre, l’anémomètre, l’électromètre, le gazomètre, la balance de précision et bien d’autres ont été indispensables pour valider les découvertes scientifiques. Lavoisier n’aurait pu établir ses lois sans la fabrication d’instruments de précision. La quasi-totalité des instruments se lisent et s’interprètent par la vue. Le son lui-même est transformé en ondulation visualisable. Le mouvement, l’odeur, la couleur également. Au moment de la Renaissance, une grande partie des instruments étaient liés à l’optique et à la mesure métrique et astronomique. L’outil mathématique accompagne également le développement scientifique. Outil car c’est lui qui permet un langage descriptif commun des phénomènes physiques. Ce langage développe une logique propre et des applications concrètes. Par exemple, calculer une surface relève des mathématiques et son utilité est incontournable pour établir un cadastre depuis l’antiquité. Le théorème de Pythagore a certainement évité des rixes mortelles entre voisins. L’outil mathématique gagne en puissance quand il s’appuie sur un instrument spécifique dédié aux calculs. La machine de Pascal (Pascaline 1645) en est un exemple car elle visait à faciliter les calculs. C’était donc plus un outil qu’un instrument scientifique. Le cas de la machine de Pascal est intéressant car elle n’eut pas vraiment de succès auprès des potentiels utilisateurs (comptables, intendants, commerçants,). Elle devra franchir plusieurs obstacles techniques pour permettre sa démocratisation. Elle utilise des inventions connues comme la roue dentée ou le cliquet. Elle adapte le sautoir (une pièce mécanique spécifique) pour résoudre le problème de la retenue. Sans accélérateur contextuel, Il faudra attendre plusieurs siècles pour que la calculatrice devienne d’usage plus courant en dépit de perfectionnements apportés par d’autres inventeurs. En 1963, apparaît la première calculatrice électronique entièrement transistorisé; Il faudra encore attendre les années 1970’ pour que la calculatrice électronique de poche se développe et s’impose petit à petit dans le domaine éducatif. La règle a calcul, inventée en 1620, après l’invention des logarithmes modernes en 1614 par John Napier, est devenue une relique familiale. Elle a pourtant été l’outil de calcul le plus utilisé pendant plus de 350 ans. Sa précision était suffisante dès lors que son graphisme était de qualité. Elles étaient encore en usage en 1960. Prédire le futur, c’est également prédire les nouveaux instruments et outils qui participent aux découvertes et inventions. Cela se complique… Vouloir prédire les technologies futures est-il un dogme passéiste ? La durée de vie s’allonge. Une personne qui naît en 2020 aura plus chances de contribuer plus longtemps à cette accélération et de connaître des technologies inconnues au moment de sa naissance. Il est donc probable que cela va produire très tôt chez l’enfant une accoutumance rapide au progrès technique. Mon grand père ne jurait que par l’apprentissage que lui avait donné ses compagnons dans la fabrication des clarinettes. Mon fils ne jure que par l’éducation en ligne qui lui permet de comprendre le monde et les évolutions de son métier de base. En 1963, le stylo bille était interdit dans les écoles mais il était déjà utilisé dans les maisons. Il faudra attendre septembre 1965 pour qu’il soit autorisé à l’école. En 1963, La détention d’un téléphone mobile personnel et d’un ordinateur portable personnel par les adolescents n’est pas, technologiquement, d’actualité. Le téléphone mobile professionnel se développe en 1983 aux USA puis en France. Deux générations plus tard, cela ne fait plus débat et le smartphone est devenu un compagnon indispensable dès le plus jeune âge. Voir une promotion publicitaire pour vous inciter à équiper votre jeune enfant d’une montre connectée est une chose qui étonne de moins en moins en 2020. L’environnement matériel est de plus en plus indispensable à la vie en société. La nostalgie du monde ancien et le besoin de spiritualité ne disparaîtront pas car ils font partie du mode de vie humain. Ils participent à accepter le futur. Cependant, l’assistance matérielle de nature technologique ne fera que croître. C’est l’acceptance de la population qui va guider les routes technologiques. Acceptance ne veut pas dire domination. Rétrospectivement, Il est encore difficile de déclarer quel a été l’impact dominant du progrès technologique au XXème siècle. Il aura fallu plusieurs siècles pour reconnaître la portée de l’invention du papier puis plus tard de l’imprimerie mais était-ce bien les deux inventions qui expliquent les siècles passés ? Le progrès médical a certainement profondément marqué le XXème siècle. Par exemple, la découverte du premier antibiotique antiparasitaire par Fleming en 1928, une découverte parmi une centaine d’autres dont l’impact a été considéré comme essentiel. L’histoire est un peu plus complexe car dès 1897, un médecin français avait observé le rôle d’un champignon penicillium sur la moisissure Escherichia coli. Il faudra également attendre 1945 pour que l’antibiotique puisse être produit en quantité de manière stable. Pour certains, l’importance du nucléaire est à souligner, à la fois par la production d’une énergie propre en quantité et par la production d’une arme redoutable qui aurait contribué à pacifier le monde. Je le répète, mais seuls les historiens pourront sans doute faire le tri. Durant cette période, il y a d’autres progrès d’importance dans les domaines de l’agriculture, de la construction et du logement, des transports et des communications, de la conquête de l’espace et de l’astrophysique. N’est-ce pas illusoire de mettre en avant une invention plutôt qu’une autre ? Celui du premier quart du 21 ème siècle sera sans doute celui de la digitalisation , un progrès transversal qui couvre l’ensemble des domaines que nous venons de citer. Mais que nous réserve le deuxième quart ! Doit-on renoncer à prédire l’avenir ? Oui, si l’on considère que l’accélération du rythme des inventions ne permet plus une projection dans le temps suffisamment longue pour stabiliser un cadre de vie probable. Oui, car une invention ne vaut souvent que par sa mercatique (entendons par là l’existence d’une demande correspondante, d’un marché rentable). C’est également la ringardisation rapide de l’invention dans son horizon de banalisation ou d’innovation rapide. Ce que l’on appelle la Hard SF, basée sur des technologies et des évolutions de société vraisemblables, n’est plus un genre littéraire qui surprend le lecteur. Non, si l’on déroule la fiction par un petit bout et qu’on amplifie la séquence pour en faire un univers improbable et qui va entrer dans la fiction. La romance et le fantastique prennent le pas sur la SF qui reste alors un prétexte à l’imaginaire. La science-fiction est- il un genre littéraire en voie de disparition au moment où les inventions explosent et les brevets se déposent à la pelle ? Non, l’imaginaire fait partie de l’humain. En fin de compte, JV était un précurseur de l’aventure fiction. Sa prédiction de l’avenir à long terme garde plus de cohérence que celle que l’on pourra observer aujourd’hui. Ne soyons pas négatif et tentons à notre tour de trouver une méthode pour améliorer la prédiction du futur. Courage… Peut-on définir un meilleur processus de prédiction du futur ? Tout d’abord, clarifions notre vocabulaire et posons-nous la question sur le rôle du hasard dans les évènements du futur. La découverte résulte d’une prise de conscience humaine de la relation entre un phénomène naturel (ou plusieurs phénomènes naturels) qui permet de comprendre une problématique dont on cherche la solution (ou dont on prend conscience en même temps que la relation). L’invention est un construit volontaire qui est en relation avec une finalité que l’on peut définir ce qui la différencie de la découverte. Ainsi, la radio activité est une découverte tout comme la dérive des continents alors que le microscope à balayage électronique est une invention. Il arrive souvent que l’invention provienne de l’application d’une découverte. Cependant la date de l’invention peut être beaucoup plus tardive que la date de la découverte. On appellera innovation, le fait de renouveler ou d’améliorer une création existante. Le hasard en matière de découverte ou d’invention est souvent le résultat d’un état de vigilance cognitive liée à une problématique qui perdure. Le hasard sera alors associé à une conjonction d’évènements fortuits qui révèlent la découverte ou permettent l’invention. La découverte ou l’invention peut être le fait du hasard mais son exploitation et sa diffusion seront le reflet d’un contexte historique humain. Certaines sont abandonnées ou restent dans l’ombre, d’autres peuvent survivre si elles évoluent. Le développement d’une ligne de force technologique est la première étape qui suit la découverte ou l’invention. A la découverte scientifique et à l’invention ne succédera une ligne de force technologique si celle-ci répond effectivement à des besoins identifiés. Plus le besoin est primaire et non satisfait, plus la motivation au développement technologique sera forte. Ces besoins peuvent être partagés par un groupe, une société commerciale, une nation. Une ligne de force technologique se développera sous la pression de besoins comme ceux-ci : chercher la suprématie militaire dans le domaine de la défense ou de l’attaque ; Cela conduit au développement des drones militaires (depuis 1944) par exemple. Ou bien, la transformation de la société avec le développement du tourisme d’hiver ; Par exemple, les téléfériques de montagne (1908) et autres remontées mécaniques (téléski, 1934), les canons à neige (1960 en France), vont répondre à ce besoin de loisir. Ou bien encore, une nouvelle formule d’achat qui relativise l’importance du vendeur et permet de satisfaire plus rapidement le besoin d’obtenir un bien de consommation ; Par exemple, les distributeurs automatiques alimentaires ou les plates-formes numériques de vente en ligne peuvent remplir ce rôle. On pourrait également imaginer pour la prochaine décennie un nouveau système de distribution postale avec des robots mobiles qui communiquent par la parole et qui apportent le courrier à domicile. Cependant, ce prolongement technologique se heurte à un changement contextuel , la baisse drastique du courrier postal en raison du développement des messageries numériques gratuites. Un modèle économique chasse l’autre. Les exemples sont aussi nombreux que les très nombreuses expressions des besoins qui évoluent en permanence. On voit bien alors qu’il est extrêmement difficile de prévoir l’emprise qu’aura la ligne de force technologique, son parcours et son étendue mais également la transformation du milieu et la création d’un nouvel environnement qui trace une nouvelle route technologique. Prenons l‘image que l’on peut conserver, celle qui est un souvenir comme celui de son mariage. La technologie s’est appuyée longtemps sur la photographie argentique puis sur la photographie numérique. Mais la véritable révolution a été celle de la communication de l’image, à tout le monde et à tout moment. Image qui remplace le langage écrit en devenant vidéo, un post sur Youtube (plusieurs milliards de vidéos vues chaque jour). La photo numérique au lieu et place de la photo argentique n’est pas simplement une alternative technologique qui conserve le concept de la photographie. Il modifie le scénario du futur en créant un nouvel environnement contextuel avec un impact social spécifique. Mais même lorsqu’une ligne de force se développe en s’appuyant sur des innovations technologie, il arrive souvent qu’une technologie alternative vienne se substituer à la précédente et modifier en profondeur l’ensemble de l’arbre ainsi créé. Donnons quelques exemples: Comment permettre l’atterrissage des avions dans des conditions climatiques de brouillard dense ? Le besoin est bien identifié et la motivation forte avec le développement du trafic aérien en hiver. Une première technologie consistera à chauffer le brouillard par des réacteurs (procédé Turboclair) pour qu’il se dissipe. De nombreux aéroports en seront équipés jusqu’à ce qu’il devienne obsolète. Il va être remplacé par un procédé d’atterrissage aux instruments appelé ILS (Instrument Landing System). C’est également le cas de la transmission de messages à distance. Jusqu’au 19 ème siècle, la préoccupation première dans la transmission des messages était d’envoyer un messager soit à pied mais en courant (marathon) soit à cheval avec des relais pour gagner en rapidité sur des longues distances. Le besoin militaire pour savoir par où était l’ennemi était un impératif. La motivation était forte. Ainsi le télégraphe de Chappe (des bras articulés sur des hauteurs) inventé en 1793 devient indispensable pour communiquer rapidement à distance. Le télégraphe électrique puis par la radio émission deviendra la règle. L’importance d’un moindre temps dans la transmission de l’information devient plus essentielle encore. La technologie alternative prendra le pas sur toutes les anciennes technologies. Le besoin d’information quasi instantané est un accélérateur contextuel non seulement en tant de guerre mais dans aussi dans le cadre de l’économie boursière,de la logistique et des transports. Inventer une technologie alternative n’est pas une garantie d’un usage de celle-ci. Il peut y avoir plusieurs types de barrières. La barrière technologique en est une bien évidemment. Ainsi le caoutchouc synthétique inventé au début du 20 ème siècle n’a jamais pu totalement se substituer au caoutchouc naturel pour les équipements pneumatiques ; le latex représente 40% de la production. D’autres barrières existent : Par exemple, la barrière du rendement capitalistique. L’investissement réalisé par les actionnaires impose aux sociétés de récompenser ces derniers en privilégiant le rendement financier de leur investissement au lieu d’une éventuelle prise de risque dans une nouvelle technologie, La barrière écologique, qui peut faire obstacle à l’exploitation d’une nouvelle filière comme celle des gaz de schiste. Factuellement, cela rend encore plus difficile de construire un scénario du futur à long terme. L’arbre de progrès technologique est l’étape suivante qui développe la ligne de force technologique. Les innovations technologiques en grappe qui se succèdent se multiplient et peuvent se combiner avec d’autres inventions. La fertilisation croisée dope le processus. Cette mise en commun peut se faire dans un but industriel et/ou mercantile. Par exemple, le métier à tisser programmable Jacquard en 1801 regroupe de nombreuses innovations techniques comme les cartes perforées ancêtres de la mécanographie et de la programmation, les cylindres utilisées dans la fabrication des automates. Jules Verne s’intéresse peu à la genèse des inventions mais plutôt à l’utilisation de celle-ci telle qu’elle est. De nos jours en 2018, la digitalisation ou numérisation informatique et électronique accélère le progrès technique et les usages de ce dernier. L’arbre de progrès technologique de l’ordinateur a été décrit sous forme de générations successives. J’écris sur un ordinateur de 4 ème génération mais la 5 ème génération est annoncée avec l’ordinateur quantique. La connectique, la robotique sont des résultats de la fertilisation croisée avec cette invention primaire qu’est l’ordinateur numérique (utilisant un système binaire). Si l’on couple la ligne technologique de l’intelligence artificiel à un système de collecte préalable de photos portraits et d’une caméra, on aboutit alors à la reconnaissance faciale instantanée, un procédé d’abord devenu courant dans les séries télévisées américaines, mais que l’on retrouve à l’Aéroport de Roissy au passage du contrôle automatique des passeports sous le nom de PARAPHE. De même la domotique connectée et la généralisation du smartphone (et des réseaux) permettent une maîtrise à distance de gestion de son habitation. Toutefois, la domotique à distance semble progresser plus lentement que ne l’annonce les médias. L’ampoule connectée donne une image de modernisme mais son utilité ne s’impose pas. Il existe de nombreuses filières dérivées d’une invention primaire et il n’est pas facile de déterminer le rôle exact de la filière ; par exemple l’évolution du semi- conducteur sans lequel il n’y aurait pas d’électronique et d’évolution de l’éclairage. Pour prédire les filières qui vont transformer la société, il faut pouvoir en évaluer les ramifications. Plus celles-ci sont nombreuses, plus il est difficile, d’en prédire l’aboutissement. Prédire le futur à long terme suppose que l’on puisse savoir combiner l’ensemble des arbres de progrès technique qui vont émerger. Si l’on peut décrire une toile d’araignée, il est difficile de déterminer quand et comment elle s’est construite. C’est le cas avec les progrès techniques. Ils sont très nombreux et leur date et leur impact sur une ligne de force est difficile à apprécier. Ainsi l’écran d’ordinateur a intégré de nombreux progrès techniques depuis l’invention du tube cathodique mais il faudra attendre un progrès technologique majeure, l’écran plat à cristaux liquides (inventé en 1971, industrialisé en 1985) pour voir se diffuser à grande échelle l’ordinateur portable en combinaison avec d’autres arbres de progrès concernant le stockage des données, les systèmes d’exploitation, les logiciels de traitement, les systèmes de connexions électroniques, …. Mais même si l’on peut dresser plusieurs scénarios de combinaison sur la base des arbres de progrès technique, lequel choisir ? Lequel va s’imposer ? Lesquels vont se combiner ? La probabilisation n’apportera pas un éclairage suffisant car l’affectation d’un coefficient de probabilité à chaque invention potentielle conduira rapidement à une dilution des chances que celle-ci se réalise. Il faudrait ajouter un autre coefficient de valorisation affectée à la combinaison. C’est une limite importante à la prédiction. Pourquoi certains développements attendus sont-ils hors de portée d’une prédiction datée ? En fait, certains peuvent être imaginés mais sans descriptif daté de la chaîne inventive. Par exemple, aller sous la mer en envoyant de l’air peut conduire à imaginer une machine portable qui contient de l’air, reliée à un tuyau. Cette recherche existe depuis l’antiquité. Différents systèmes depuis cette période ont abouti à de nombreux systèmes dépendants d’une pompe à air, puis au scaphandre autonome. L’appareil de plongée de Rouquayrol et Denayrouse servira de modèle dans le roman de JV « Vingt mille lieues sous les mers ». Une succession d’inventions vont permettre d’aboutir au scaphandre moderne après l’invention du détendeur pour réguler le débit de la bouteille d’air comprimé nécessaire au plongeur sous-marin. Issu d’une application pour faire fonctionner les gazogènes de voitures. Inventé et breveté en 1943 par Cousteau et Gagnan, la version commerciale du détendeur CG45 sera breveté en 1945. Cette invention ne relève pas du hasard mais d’une conjonction entre une recherche de solution technique par Jacques- Yves Cousteau qui pratique déjà la plongée pour explorer les fonds marins et le fait que le père de son épouse, évoluant dans ce domaine industriel précis, avait compris le besoin de Cousteau. Il a pu ainsi lui présenter Emile Gagnan qui sera le co-inventeur du CG45. J’ai eu l’occasion de débuter la plongée sous-marine en 1960. A l’époque, le détendeur utilisé était encore un détendeur à un étage et deux tuyaux beaucoup moins pratique que le détendeur à deux étages et un tuyau apparu en 1957 et perfectionné ensuite. Cette dernière innovation va permettre de vulgariser cette activité. D’autres perfectionnements sont dus à la résolution d’obstacles techniques identifiés : pouvoir compresser de l’air fortement en conservant la qualité, avoir un réservoir suffisamment solide mais léger de grand volume, pourvoir réguler le débit d’air quelque soit la position dans l’eau, utiliser un gilet de compensation pour régler sa flottabilité, utiliser des mélanges gazeux pour descendre en grande profondeur, etc. Toutefois, une telle invention n’aurait pas eu le succès attendu sans qu’un autre obstacle technique ait été levé. Le corps se refroidit rapidement dans l’eau (En Bretagne, elle est voisine de 17° en été) et il est nécessaire de porter une combinaison qui permet de conserver le corps à une température minimum. Si la combinaison isothermique (Beuchat, 1953) est créée dans les années 1950’ Il faudra attendre 1970 pour bénéficier d’une combinaison plus facile à enfiler pour le grand public. Aujourd’hui il existe des milliers de clubs de plongée accessibles à ‘importe quel touriste de passage. Bien souvent, la difficulté n’est pas la possibilité d’imaginer une nouvelle technologie qui deviendra réalité mais dater l’arrivée de cette technologie . La date d’arrivée d’une technologie conditionne l’arbre de progrès technique et son impact sur son champ d’utilisation. C’est une deuxième limite à la prédiction qu’il faut franchir. Mais ces deux limites conduisent à une autre difficulté; c elle des routes technologiques . La route technologique dépend de l’ordre des inventions mais pas seulement. Un contexte économique peut orienter la route technologique. Par exemple, la machine à écrire mécanique est une invention relativement ancienne (début du 18 ème siècle. Plus récemment, la machine à écrire à ruban encreur (1850) ouvre la voie à une combinaison entre écriture et imprimerie. La machine à écrire électrique (début du 20 ème siècle va permettre beaucoup plus tard d’intégrer une mémoire électronique pour stocker des textes ou programmer différentes éditions. Différentes innovations techniques vont offrir des progrès dans l’usage (ruban correcteur intégré, aiguilles permettant des caractères différents,). La machine à écrire va croiser une autre route technologique qui progresse dans la deuxième moitié du 20 ème siècle, celle de l’ordinateur, de son écran, de son clavier et de son imprimante. Paradoxalement, l’équipement informatique est plus complexe que celui de la machine à écrire, et il nécessite des accessoires différents. Pourquoi alors ma machine à écrire va-t-elle être supplanté par l’ordinateur ? La qualité fonctionnelle de l’ordinateur et sa puissance apporte une suprématie sans égal par rapport à une machine à écrire. En absorbant toutes ses fonctionnalités et en les améliorant, il est un outil multitâche d’une productivité supérieure et donc d’un intérêt économique supérieur. La route technologique de la machine à écrire mécanique a rejoint la grande route technologique de l’ordinateur. L’histoire d’IBM, entreprise dominante dans ce que l’on a appelé les « gros systèmes informatiques » a connu une valse hésitation entre le perfectionnement de ces machines à écrire et le développement de petits ordinateurs. Le délai mis à choisir sa route technologique le conduira à abandonner la compétition dans ces deux secteurs. IBM arrête sa production de machine à écrire en1989. La branche des ordinateurs personnels « Personal Computer ou PC » est vendu à une entreprise chinoise, Lenovo en 2005. L’accélérateur contextuel agit comme un catalyseur et traduit l’émergence d’un besoin partagé et d’une transformation de la société. L’évolution technique n’est pas le fait d’une période où les génies seraient subitement nés mais bel et bien une construction plutôt lente avec certaines accélérations autour de lignes de forces qui peuvent interagir les unes avec les autres. Prédire le futur, c’est aussi essayer de d’identifier quel peut être l’accélérateur contextuel de certaines inventions et comment son champ d’influence peut s’étendre au-delà de l’invention primaire. Aujourd’hui, la technologie permet de raccourcir à la fois le temps de collecte de l’information mais également la transmission de données pratiquement en tout point du globe. Suivre en direct sur un écran d’ordinateur à 10.000 km de l’événement le résultat probable des élections d’un président quelques dixième de secondes après la fermeture officielle des bureaux de vote est une réalité. La technologie va permettre l’accumulation de données (le sondage, les « big data ») la capacité de traitement de ces données par des algorithmes (le calcul statistique, l’intelligence artificielle) et la transmission des données (la kirielle de satellites d’Elon Musk). L’accélérateur contextuel en a été le besoin social de partage et d’appartenance à un groupe et un besoin de vivre plus intensément ce besoin social. La quantité d’information et le temps de transmission de cette dernière ont été le résultat de cet accélérateur contextuel. Ainsi on peut dire qu’un médecin qui fait son diagnostic avec un dispositif de télémédecine est dans la même veine inventive que l’opérateur qui manipule le télégraphe de Chappe à une autre époque. Ce qui fait la différence, c’est l’extension de l’arbre technologique vers des applications qui se sont ouvertes grâce à ces progrès technologiques. Demain, dans ce domaine, l’accélérateur contextuel peut évoluer vers un besoin d’appréhension plus qualitatif et plus sensoriel (plus complet, plus intense et plus personnalisé). Cela pousse à développer des technologies dans le domaine de l’image et du virtuel, Le 3D devient indispensable, le nombre de pixels augmente, l’écran de télévision devient plus grand, l’ampoule connectée permet le jeu de lumière à la demande, la télévision en 3D sans lunettes (Sony 2020) relance la vision holographique, l’imprimante 3D est déjà dans les bureaux d’architecture. L’instantanéité émotionnelle des réseaux sociaux par la diffusion de séquences vidéo et d’images déclenchent une réaction parfois massive et importante : Suivre en direct l’évacuation manu militari d’un médecin d’origine vietnamienne à bord d’un avion United Airlines pour cause de surbooking a déclenché une réaction mondiale (avril 2017). La diffusion en 2020 sur les réseaux sociaux, dans l’heure qui a suivi, du meurtre de George Floyd en 8 minutes et 46 secondes fait partie de l’évolution quasi-irréversible du contexte. Si nous avons correctement identifié ce besoin tendanciel, transporter et matérialiser une émotion personnalisée, alors demain, vous pourrez envoyer instantanément votre bouquet de fleur pour la Saint Valentin. Il suffit de transformer votre imprimante 3D pour qu’elle soit capable de produire au domicile du destinataire votre « sticker » une vignette digitale envoyée par votre messagerie favorite. Il existe de nombreux accélérateurs contextuels qui servent d’émulation à une technologie. Cette émulation sera souvent un choix de suprématie militaire (avec une veille constante des nouvelles technologies) mais pas seulement. Ainsi la conquête de l’espace a été un puissant émulateur technologique et beaucoup d’inventions en résultent. On peut aujourd’hui anticiper d’autres inventions qui seront liés à des voyages de longue durée dans l’espace. Identifier l’accélérateur contextuel, à sa source, est indispensable pour comprendre l’évolution de la ligne de force technologique et l’ampleur que prendra l’essaimage. Il n’en reste pas moins que certains obstacles technologiques existent et qu’il est parfois impossible de déterminer quand le blocage sera levé. Ainsi, les « machines volantes » permettant de se déplacer (hélicoptères, avions, drones) ne sont plus des objets de science fiction. L’idée de machine volante est probablement très ancienne et l’imagination de Leonard de Vinci dans ce domaine est connue. Toutefois, la force motrice non humaine pour faire fonctionner cette machine n’est pas évoquée. Les idées de Leonard de Vinci seront oubliées en l’absence de concept technologique crédible. L’invention de la machine à vapeur va prendre plus d’un siècle avant qu’elle ne soit performante (18 ème -19 ème siècle). Elle a cassé la barrière psychologique et libéré le génie inventif, conduisant au moteur à combustion et explosion, puis presque naturellement à l’idée que le « plus lourd que l’air » pouvait s’envoler par la force mécanique du moteur (20 ème siècle). C’est le besoin militaire (guerre de 1914-1918) qui fut l’accélérateur contextuel. De même, l’invention de l’hélice est une invention qui a révolutionné la navigation. Comme souvent, l’idée et le principe date de l’antiquité avec le principe de la vis sans fin. Mais là encore, c’est la machine à vapeur et le moteur thermique qui vont conduire à l’utilisation de l’énergie mécanique pour la navigation (dans la première moitié du 19 ème siècle). Alors que les bateaux à aube, utilisant la vapeur permettaient une navigation fluviale dans cette première moitié du 19 ème siècle, l’hélice bien que faisant l’objet de dépôts de brevets, ne s’inscrivait pas dans une ligne de force technologique privilégiée. Il a fallu attendre le perfectionnement de l’hélice (1836-1840) pour que celle-ci s’impose comme la meilleure alternative technologique. La recherche d’un meilleur rendement va se heurter à un obstacle technologique nouveau, qui n’avait pu être prédit, appelé «la cavitation », un dégagement de bulles, qui peut causer une forte diminution du rendement ou des destructions de l’hélice. Cet obstacle une fois surmonté va permettre des inventions secondaires (par exemple la machine à détartrer les dents qui associe l’ultrason et l’hydropropulsion à haute vitesse). L’accélération des accélérateurs contextuels . La large diffusion en toutes langues des connaissances de plus en plus scientifiquement avérées participe à la démocratisation des connaissances et un champ alternatif à l’éducation traditionnelle. Le recours grandissant à Wilkipédia, encyclopédie collaborative qui se dit libre de toute attache étatique est une réalité. La mise ne ligne numérique d’archives et de textes de revue scientifiques, la traduction instantanée, les tutoriels postés sur Internet, élargissent encore le champ potentiel des connaissances. Peut-on évaluer l’’impact des découvertes et inventions ? La plupart des découvertes ou inventions seront écartées si elles ne sont pas reliées à une tendance, une crise économique, sanitaire, sociale, une menace sociétale, une envie collective, un courant de pensée, …. Ce sont des graines qui n’ont pas trouvées leur terrain favorable pour se développer. Il est donc délicat d’évaluer l’impact prédictif d’une invention avant qu’elle ne soit mesurable. Prenons l’exemple d’un moulin à vent. Ainsi, on pourrait attribuer une note à cette invention pour sa contribution utile à la nutrition de la population. Hélas, La définition multifactorielle de la note à attribuer reste un problème complexe. On pourrait ainsi donner une note à toutes les inventions qui participent au même but afin de réaliser une moyenne. Mais comment additionner une note qui contribue à la nutrition et une autre qui contribue à la santé par exemple, ou bien encore au loisir (composante du bien être). Par ailleurs, le moulin à vent n’a pas la même utilité nutritionnelle dans un monde où la farine de blé est remplacée par du soja par exemple. Mettons cette piste de côté pour le moment comme outil de prédiction. Voici une courte liste d’inventions de processus ou de systèmes dans le désordre : la téléphonie, la réfrigération, la photographie, la pasteurisation, la télévision, l’imagerie à résonnance magnétique, l’antibiothérapie, la vaccination, l’horlogerie, l’imprimerie, la Wifi, le GPS, …. D’autres inventions se désignent plus par leurs d’objets fonctionnels (un ensemble de composants) comme la boussole, les lunettes, la roue, la pile électrique, l’ampoule électrique, la charrue, la guillotine, l’ordinateur, la carte à puce, l’hélice, le cadran solaire, la catapulte, le transistor, … … Et parfois ce sont des inventions concepts comme le zéro, l’écriture, le système de protocole binaire, le fort à la Vauban, la cuisine moléculaire, La sélection naturelle de Darwin, l’encyclopédie collaborative…. Une taxinomie (ou taxonomie si vous préférez mais…) de l’invention et de la découverte scientifique comme cela existe en classement des espèces pourrait être un premier domaine à établir. La classification hiérarchique des brevets d’invention est une base de réflexion mais plus pratique que porteur de sens. Bref, le travail semble long pour classer les inventions, les évaluer avec un indice de performance. Encore une fausse piste si l’on prend chaque chaînon de l’invention. Il peut alors être intéressant de s’orienter vers les grandes ruptures sociotechniques . Ce sont celles qui vont modifier structurellement la manière de vivre dans notre société, Ce n’est pas une idée grandiose mais cela devrait pouvoir se faire si on procède par périodes de 20 ans. Prévoir les ruptures sociotechniques et les changements structurels qui en sont la conséquence suppose de modifier l’angle d’approche non pas en partant de la technique mais du contexte sociétal au sens large (économie urbaine, logement, travail et emploi, éducation, etc.). Ainsi Jules Verne introduit la densité de population. Elle aboutit à prédire de très grands immeubles avec de petites surfaces et une immense zone urbaine continue, un « Grand Paris » avant l’heure. Par exemple, les progrès des technologies de communication (la 5G, avec un débit multiplié par 100, est déjà une réalité en 2020 alors que la 3G a fait son apparition en 2000) semblent remettre en cause le besoin de communication présentiel. Aujourd’hui les banques ont amorcé un virage important en repensant totalement la stratégie de développement au plus proche physiquement du public. Plutôt que de multiplier les points de contact, il leur semble préférable de développer pour le futur les techniques de communication distancielle. Ce nouveau statut relationnel n’a pas encore produit toutes ses conséquences. En matière de prédiction du futur, il n’est pas osé de penser que votre conseiller bancaire (homme ou femme) pourra apparaître chez vous dans un cube en 3D lors d’un rendez- vous (il faudra peut-être attendre la 7G dans 20 ans). Il ne sera pas nécessaire de choisir l’agence la plus proche de chez vous mais de suivre la personne d’une agence à l’autre. Et cette personne ne sera présente dans l’agence qu’une seule journée par semaine pour autant que l’agence existe encore et ne soit pas devenue une banque en ligne. Ce type de projection permet d’identifier les besoins du futur dans un court et moyen terme. C’est pourquoi, un horizon de 25 ans nous semble raisonnable pour prédire le futur. Ou bien encore, le changement climatique annoncé va entraîner des bouleversements importants. La sécheresse en est avec ses conséquences sur l’élevage, l’agriculture (de nombreux scénarios existent déjà) et plus simplement le besoin d’eau dans les zones urbaines. On peut prédire de nombreuses inventions vont chercher des solutions et même que l’on pourra puiser de l’eau dans l’atmosphère (plusieurs techniques expérimentales existeraient déjà) plutôt que dans la mer. La pression sociétale (crise du pétrole, pollution écologique et impact sanitaire) ne garantit pas pour autant le progrès technologique. Ainsi la voiture électrique inventée dès 1830 par Robert Anderson s’est rapidement heurtée aux capacités des batteries et à leur rechargement. Aujourd’hui encore (2020), la part de la voiture électrique ne dépasse pas 5% au niveau mondial et celle des véhicules à gaz naturel est inférieure à 4%. Quant à la voiture à moteur nucléaire, elle est une possibilité technique (Ford, 1958) dont l’idée même semble se heurter à une forte barrière psychologique (risque sécuritaire). Elle sera retenue comme solution pour un voyage sur Mars. L’imagination source de la prédiction du futur : mythe ou réalité ? On peut tout à fait s’appuyer sur l’imagination pour aider la prédiction du futur si celle-ci se limite à 25 ans. La difficulté sera de déterminer si cette prédiction correspond bien au besoin humain et quand ce dernier sera la source d’un effort pour le concrétiser. Répondre à cette question induit la question : quand pourra t-on avoir la technologie correspondante ? Il nous semble donc que cette piste ne soit pas la bonne si elle n’est qu’un imaginaire fantasque. Par contre, plus proche d’une aspiration trop vaste pour être précise, il est plus opérationnel de s’appuyer sur un processus de créativité associé à celui de résolution de problème. Le processus de créativité repose sur une libération de l’esprit et un travail collectif en petit groupe d’émulation, La résolution de problèmes permet de cadrer l’explosion des idées en les faisant entrer dans une réalité économique et industrielle. Il est donc possible de multiplier les inventions par un programme volontaire basé sur un programme l’émulation collective, du simple « Brain Storming » à des méthodes beaucoup plus élaborées qui peuvent durer quelques heures ou quelques jours sous la conduite d’un animateur expert. J’ai personnellement pu animer de nombreux séminaires de créativité et constater l’efficacité de la démarche à plusieurs reprises. On peut également utiliser l’intelligence artificielle et le traitement de données pour faciliter la résolution de problèmes. Par exemple, on utilise l’intelligence artificielle pour trouver des candidats-médicaments aptes à traiter telle ou telle maladie. Cela se base sur l’action moléculaire connue et des fiches de renseignements sur les interactions moléculaires potentielles. On parle d’essai « in silico » mais en réalité, c’est plus un traitement numérique à partir d’une base de données renseignées. L’invention peut être le résultat mais il ne s’agit pas de prédiction du futur. Un ministère de la prédiction est-il une solution ? Un ministère du plan est une solution largement adopté sous différentes formes. Cependant ce type de ministère reste souvent un gestionnaire de projets qu’il peut ainsi orienter et favoriser par des subventions. Il s’appuie sur des instituts de recherche qui œuvrent dans la prévision des besoins mais non dans la prédiction. La certitude de la prédiction du futur diminue rapidement avec l’éloignement dans le futur. Un tel organe exécutif a donc un rôle limité dans la prédiction du futur. La datation tout aussi incertaine d’un évènement futur qu’il soit technologique ou autre consolide ce point de vue. Son utilité se résume alors à un « Think Tank » un laboratoire de conjectures à venir à court et moyen terme. Actualisation 2020 : La pandémie de Coronavirus en 2019 -2020 a montré que même lorsqu’il y a eu consensus sur une prédiction du futur sans date certaine - Il y aura dans les cent ans à venir- une épidémie mortelle -, cela ne conduit pas à une action d’anticipation spécifique dans la très grande majorité des pays développés. De même, on prédit qu’un astéroïde ou une comète a de fortes chances d’impacter la terre dans le futur sans pouvoir le dater. D’autres évènements critiques peuvent être prédits sans pour autant, mobiliser les gouvernances. La fiction apocalyptique et les prédictions de fin du monde spécifiques de l’Homo Sapiens ne sont que des frissons de peur qui rassurent sur notre statut actuel d’humain dominant. Faut-il renoncer définitivement à prédire l’avenir ? En fait, ce n’est pas dans la nature humaine de renoncer, alors, poursuivons. Un plafond de verre de la prédiction existe-t-il ? Un premier plafond de verre est de nature philosophique. En reproduisant sa main sur le mur d’une grotte, l’homme a pu développer sa capacité à découvrir, à comprendre et à inventer. Mais quel est le bon ordre ? L’homme ne peut découvrir qu’en faisant référence à son propre système de perception et comprendre par rapport à ses propres références. Il ne peut inventer au-delà de ce qu’il projette de son propre système. Cette projection peut être traduite dans un langage de communication. Il peut utiliser un langage abstrait loin du dessin des premiers hiéroglyphes mais c’est toujours lui qui crée son propre système de référence. Cet avantage lui permet d’enrichir et de préciser ses découvertes avec les autres. Grâce au langage et à l’écriture, il peut figer dans le temps une réflexion, une idée, une découverte, un phénomène qu’il juge surnaturel, ou une observation qu’il n’explique pas. Il pourra reprendre son processus de compréhension après avoir développé ses capacités d’analyse et de raisonnement. Toutefois, il ne peut inventer ce qu’il ne peut pas projeter et comprendre techniquement. L’outil mathématique lui permet de dépasser la perception sensible mais ne reste qu’un outil soumis à la logique du Sapiens. Cette théorie explique pourquoi, Jules Verne n’a rien inventé fondamentalement mais simplement combiné ou généralisé. Est-ce à dire que l’imaginaire ne peut inventer au-delà du plafond de verre de la perception sensible ? oui sauf à considérer que le domaine artistique est une forme de prédiction du futur non déchiffré. Les œuvres d’artiste, ne cherchent pas à entrer dans un système de compréhension mais d’expression. Si, elles peuvent refléter émotionnellement les évolutions de l’environnement contextuel, elles ne participent pas directement aux découvertes. Elles peuvent accompagner une transformation de la pensée. Un second plafond de verre est une limite technologique identifié au-delà duquel on ne peut pas aller que par son imagination. Par exemple dépasser la vitesse de la lumière est un plafond de verre. Techniquement impossible aujourd’hui mais imaginable (et déjà imaginé). Ou bien encore, obtenir la neutralisation de la gravité sans recourir à une force opposée (également déjà imaginé). Cela ne relève pas de la prédiction du futur mais de l’imaginaire. Mais ce plafond de verre existe-il vraiment ? Qui aurait imaginé en 1863 que l’homme pouvait (et non pourrait) franchir le mur du son (1024 km/h) en 1947 moins de 100 ans plus tard ? Le plafond de verre n’est-il alors simplement une limite psychologique qui limite la prédiction du futur. En 1863, dépasser la vitesse du son n’était pas un problème technologique à résoudre car l’idée même d’un mur du son était hors du champ de l’homo sapiens. Et si jules Verne avait raison... Pour Jules Verne, la domination technologique mènera le monde. Les savants deviennent les maîtres associés aux capitalistes. Le nouvel ordre est celui de l’élite industrielle, la source du progrès humain auquel il semble croire. Est-il un Saint Simonien convaincu ? Dans son livre visionnaire de Paris en 1963, Il regrette la disparition des belles lettres, du latin et de la musique classique. Il décrit le monde demain mais prend-il parti pour une société utopiste ? En fait, ce n’est pas la technologie mécanique (comme le croyait Jules Verne) qui a causé l’abandon des belles lettres et du latin, c’est plutôt la technologie numérique qui a fait reculer l’écrit au profit de l’audio-visuel. Mais c’est jouer sur les mots. La dévalorisation de l’écrit, est-elle un obstacle à une évolution de la pensée ? la puissance de l’économie industrielle est-elle un obstacle à toute évolution de la pensée autre que le débat entre richesse et redistribution ? Que répondre ? Les avancées dans les sciences font progresser la société dans ses connaissances mais également dans la philosophie. La nouvelle philosophie ne vient plus des belles lettres mais de la science qui remet en cause les certitudes acquises. La période de la Renaissance touche à sa fin. Comment qualifier la nouvelle période qui s’annonce ? La domination de la machine androïde sur l’homme esclave de la technologie à la sauce de Kurzweil ; j’en doute. En revanche, les belles lettres et la philosophie classique sont en panne. Elles restent confinées à un cercle d’avertis comme il y a quelques siècles mais elle ne diffusent plus leur contenu. Deux mondes semblent coexister, celui de médiacratie, la domination des médias déjà évoqué dans un de mes blogs, et celui de l’élite littéraire enfermé dans un cercle restreint. La culture populaire s'insère avec succès entre ces deux mondes et gagne en importance. Et si Jules Verne avait raison. La domination technologique est envahissante. Cela veut dire qu’elle avance si vite que nous n’avons pas le temps de l’assimiler et de l’intégrer dans notre champ de conscience. Alors bien évidemment, elle alimente nos peurs et se traduit pas une résistance compréhensible au progrès. Elle peut faire maître un militantisme violent, des actions de rejet de projets novateurs, la généralisation du principe de précaution, des comportements difficilement justifiables (position anti vaccin, alimentation VEGAN ,… ou bien encore un repli sectaire avec une vie partiellement ou totalement en dehors du monde moderne (il est parfois difficile de déterminer quand commence le monde moderne). Ainsi Le Chabbat dans la religion juive est un exemple de ce besoin de s’extraire du monde pour se retrouver. Il faut des pauses en dehors du monde moderne quant il y a trop d’accélération technique. Cependant, devra t-on considérer la bougie et la charrue comme moderne ? Devra t-on instaurer demain un jour férié la journée sans technologie plutôt qu’un jour de fête dédié à la religion. Cette réflexion philosophique fera l’objet d’un autre blog. La peur du progrès technique n’est pas nouvelle. Elle va se traduire par des comportements d’évitement ou par des actions plus violentes. La rationalisation de cette peur peut conduire à rejeter certaines technologies. C’est une barrière culturelle qui ne peut être négligée dans la prédiction de l’avenir. Linky est un compteur de la consommation électrique dit « intelligent », connecté au réseau électrique. Le cas du compteur Linky est exemplaire dans ce domaine de la peur « technologique » et des réactions qu’il suscite... Il enregistre les données de consommation et va les transmettre. Pour ses partisans, c’est une avancée technologique qui permet de faire des économies. Pour ses opposants, Linky est un gadget inutile qui est dangereux en raison de sa production d’un champ électromagnétique. Et il serait même un danger pour les libertés individuelles car il stocke les données de consommation électrique d’un foyer. L’histoire des découvertes scientifiques montre des périodes différentes. Cela provient pour partie de la culture qui favorise ou non la recherche scientifique et son acceptation. Il semble que la culture religieuse avec ses nombreux dogmes et tabous n’a pas favorisé la voie de la recherche scientifique. Rappelons à titre d’exemple que Galilée fut condamné à la prison pour avoir soutenu l’héliocentrisme en 1633. Quelques communautés comme les jésuites dont la tradition scientifique date de 1540 étaient plus ouvertes sur l’intérêt de cette recherche. L’alchimie était une pratique surveillée par le pouvoir religieux et qui restait secrète. Les découvertes n’étaient pas formalisées par une théorie. « Percer les secrets de la nature » selon les mots de Francis Bacon, un penseur critique de la science à l’époque de la Renaissance et considéré comme initiateur de la pensée moderne scientifique, passe par d’abord par une observation rigoureuse et méthodique de la nature. Cela signifie que l’on va d’abord s’attacher à voir mais à analyser différemment. Voir pour l’homme est une fonction essentielle au progrès de la science sans laquelle il ne peut avoir une capacité d’abstraction. La progression de la science va donc être d’abord de comprendre ce que l’on voit avant de comprendre ce que l’on ne voit pas mais que l’on représente abstraitement. Le besoin de méthode (j’aime bien cette définition : organisation raisonnée de moyens que l’esprit utilise pour atteindre un objectif) apparaît alors comme l’adjuvant indispensable à la découverte scientifique. La méthode empirique (Voir, Observer, Reporter, Décrire, Spécifier, Mesurer, Classer, Identifier, Attribuer, faire une hypothèse, …), la méthode expérimentale (Identifier les paramètres du phénomène, faire une hypothèse, tester en faisant varier un ou plusieurs paramètres,) seront les plus utilisées. Il est clair que l’obscurantisme ne pourrait revenir que par un asservissement doctrinaire et une puissante action liberticide. C’est un scénario improbable mais imaginable. La destruction des symboles culturels et du savoir lui-même n’est pas absente du parcours de l’Homo sapiens, pas si « Sapiens » que cela. En attendant, cherchons une méthode alternative de prédiction du futur. L’idée est que le plus important n’est pas de dater les découvertes et inventions mais de les intégrer dans des routes prospectives à 20 ans. Ce travail est en cours. A suivre …
Share by: