Révolution numérique et lutte des classes
-
Texte de la conférence prononcée à la demande de l'Union des étudiants communiste de Toulouse pour la semaine de la pensée marxiste.
Le 1er mars 2015
La puissance US, plus préoccupée de s'assurer une position hégémonique dans le monde que d'y assurer la pérennité de l'humanité et son développement harmonieux, cherche comment utiliser les nouvelles technologies, et plus particulièrement les TIC pour assurer sa domination.
Fidèles à leur sens pratique, les étatsuniens ne se lancent pas dans des spéculations oiseuses pour savoir si la science est devenue une force productive directe. Ils appliquent de façon pragmatique les enseignements du marxisme. Ils ont intégré dans leur pratique depuis longtemps l'idée que le développement impétueux des forces productives était essentiel pour dominer le monde. Dominer le monde ici s'entend par dominer le monde capitaliste. C'est-à-dire que pour le dominer il faut développer des techniques qui génèrent le maximum de profit dans le minimum de temps, qui favorisent plus globalement la valorisation du capital.
Les enjeux des TIC
Ces enjeux sont considérés comme fondamentaux par les dirigeants US ; stratégiques au plein sens du terme. À tel point qu'a été constitué auprès du Président des États Unis, le PITAC, (President's Information Technology Advisory Committee.) comité qui court-circuite toute l'administration gouvernementale. Il est chargé d'évaluer et d'orienter l'action publique et privée, par tous les moyens pour répondre à un certain nombre de défis. Ce comité, est doté de moyens financiers considérables et n'a à répondre de ses activités qu'au Président.
La stratégie US de domination mondiale
La stratégie mondiale de domination des USA s'appuie sur quatre piliers, selon l'aveu même des dirigeants US.
· Le contrôle des ressources énergétiques de la planète ;
· « l'arme alimentaire », par les OGM en particulier et accessoirement le GATT, l'OMC; la banque mondiale, le FMI ;
· le contrôle total de l'information sous toutes ses formes (en particulier des TIC) et plus généralement, le contrôle de l'innovation technologique ;
· le contrôle des flux financiers.
De ce dernier point de vue, l'acceptation par les grandes puissances capitalistes du dollar comme monnaie internationale est une soumission servile pure et simple aux intérêts de la puissance impérialiste la plus puissante, une capitulation en rase campagne, d'autres possibilités ayant été sciemment écartées. Bien entendu, le rôle dévolu au FMI et à la banque mondiale est de renforcer cet aspect, malgré des contradictions impérialistes bien réelles.
Le troisième point cité ci-dessus, c’est-à-dire le contrôle de l’information sous toutes ses formes est, du point de vue des dirigeants US le plus important car il conditionne dans une large mesure les autres ainsi que la suprématie militaire. C'est la raison profonde de la création du PITAC.
L'impétuosité de la diffusion des TIC est une aubaine pour les sociétés multinationales US et le gouvernement car elle entraîne nombre de situations de ruptures technologiques, économiques et organisationnelles. Ces ruptures fournissent des circonstances favorables de prédation et de réorganisation de l'économie mondiale. L'implication du gouvernement US dans le soutien total, économique, financier et politique au développement des TIC n'est pas innocente au pays des chantres du libéralisme économique... pour les autres
Big data superstar, ou, les données, clé de la puissance
Toute l’industrie liée à l’internet, le réseau des réseaux, qu’il s’agisse des infrastructures physiques, nœuds composés de centres informatiques, systèmes de télécommunications, satellites, centres de stockage et de traitement des données, les super-ordinateurs de traitement, les nouveaux services en ligne, constituent un secteur industriel en croissance très importante et porteuse d’avenir.
A eux seuls, les centres de stockage des données consomment déjà presqu’autant d’électricité qu’un pays comme la France.
Quelques repères marquants :
- un personnage virtuel de Second Life consomme chaque année autant d’électricité qu’un Brésilien et 10 fois plus qu’un Camerounais ;
- télécharger la version électronique d’un quotidien consomme autant d’électricité que faire une lessive ;
- une recherche Google équivaut à l’énergie consommée pendant une heure par une ampoule à économie d’énergie ;
- chaque année, les plus grands centres de stockage de données consomment la production de 14 centrales nucléaires.
On estime que si les technologies informatiques et électriques n’évoluent pas de façon sensible, en 2040 internet consommera autant d’électricité que le monde entier en a consommé en 2008 !
Les bases de données en elles-mêmes sont un gisement d’informations extraordinaire que l'on commence tout juste à exploiter. Elles permettent d’extraire des connaissances, qui étaient hors d'atteinte, ou même en générer de nouvelles, parce que hors du domaine du pensable. La condition aussi c’est d’élaborer les algorithmes permettant de traiter de telles masses de données, y compris de traiter à la volée le flux d’informations circulant sur le réseau, c’est un domaine ouvert de la recherche algorithmique.
Une nouvelle médecine apparaît, qui, traitant les données individuelles, permettra d’élaborer des traitements adaptés à chacun en cohérence avec la gestion de la santé des populations.
Un nouveau secteur d’activité économique émerge, qui traite les données pour offrir des services à valeur ajoutée. Par exemple, Google réalise, grâce à ses données, un chiffre d'affaires de plus d'un milliard d'euros en France, mais n’y paie quasiment pas d’impôt. Pour le système de santé US, qui comme chacun sait est privé et donc couvre très mal la population états-unienne, le potentiel économique du stockage et du traitement des données est pourtant estimé à environ 300 milliards $, soit 1000 $ par états-unien et par an !
Les années 1990 sont celles de l’émergence d’internet, et du web pour le grand public. L’apparition massive, explosive devrais-je dire des pages Web a nécessité la mise au point de logiciels susceptibles de fournir rapidement l’accès aux pages pertinentes. Ainsi sont apparus les moteurs de recherche.
Mais dans le même temps, si les moteurs de recherche fournissent un service gratuit, ils récupèrent au passage nos données.
Lorsqu’un service est gratuit ou très bon marché, c’est que c’est vous le produit !
Ainsi s’établit un accord tacite, et souvent occulté ; service gratuit contre données personnelles.
Les dits moteurs de recherche traitent, stockent et exploitent les requêtent des internautes. Ils peuvent en élaborer des profils permettant de cibler des publicités pour les individus, mais aussi en tirer des informations concernant des populations entières comme les épidémies, ou encore de connaître l’état d’esprit d’une population et de mieux cibler la guerre idéologique.
C’est au début du siècle que cet essor du traitement des données se manifeste en grand, en particulier avec les réseaux sociaux qui font tomber toutes les barrières de la vie privée et des données personnelles. Ainsi si vous mettez des photos personnelles , y compris intimes, sur des sites dans les nuages (cloud in english) sachez que ces photos sont alors dans le domaine public et utilisables et diffusables par le fournisseur du service. Toutes les données personnelles générées par les systèmes que nous utilisons, y compris à notre insu, sont aujourd’hui au cœur de l’économie.
Les données, personnelles ou non, sont devenues une matière première, au même titre que les données minérales comme le pétrole ou les minerais, à la différence que ces dernières sont localisées, dépendantes de leur situation géographique, ce qui n’est évidemment pas le cas des données.
Une différence essentielle entre ces différents types de données tient dans la concentration et la distribution d’icelles. Pour le pétrole par exemple, mais c’est vrai pour les matières premières classiques, on les extrait en un point bien précis où elles sont concentrées pour des raisons indépendantes de notre volonté, géologiques en l’occurrence, et on les distribue là où elles doivent être consommées, c’est la raison des stations service par exemple. Pour les données sur le réseau, c’est le schéma inverse, on les collecte sur les sites où elles sont produites, les ordinateurs personnels ou d’entreprise, et on les concentre dans des centres de traitement complètement délocalisés, détenus par des multinationales US telles Google, Amazon ou Facebook qui concentrent entre 80 à 85% des données physiquement aux USA.
Le 3 janvier 2015, la Federal Trade Commission des USA a pris décision de ne pas poursuivre Google pour abus de position dominante pour la façon dont son moteur de recherche favorise systématiquement ses propres produits et services de vente en ligne favorisant ainsi, de fait et de juré, la tendance lourde à la position dominante US dans la concentration dans l’industrie de la donnée.
Google sait ou est en mesure de savoir aujourd’hui plus de choses sur la réalité et l’économie françaises que l’INSEE.
La maîtrise de la donnée permet aussi la maîtrise de certains marchés qui transitent déjà dans certains domaines par les outils de commerce électronique américains.
Faute de développer cette industrie, il est probable qu'à brève échéance nous achèterons de nombreux biens et services, produits et consommés en France comme nos billets de train ou notre électricité, à un prestataire étranger qui dégagera une part importante de la valeur ajoutée et aura le contrôle de la chaîne industrielle.
La maîtrise de la société de l'information donne une puissance qu'on soupçonne encore peu et qui dépasse de loin les secteurs de l'économie marchande.
A titre d'exemple, les systèmes de cours en ligne, qui connaissent une croissance rapide aux Etats-Unis, et qui finiront par révolutionner l'enseignement, permettront
aussi une maîtrise des ressources humaines au niveau mondial, stratégique au moment où les pays industrialisés feront face à un déficit croissant de personnels scientifiques.
La société de l'information pénètre des domaines moins visibles. Certains services régaliens, comme l'identité des personnes, pourraient même être assurés demain par des multinationales.
Le réseau social Facebook permet une authentification des personnes qui n'a pas d'égale en qualité et pourrait devenir incontournable. Le Royaume-Uni envisage d'ailleurs de l'utiliser pour l'accès aux services publics en ligne. La maîtrise des données est en fin de compte liée à la sécurité et à l'indépendance nationales.
Mais d'autres pays ont des vues stratégiques dans ce domaine. La Chine tout d'abord, qui détient 16 % des 50 premiers sites mondiaux, à côté des 72 % américains. Dans ces deux pays, les données nationales restent sous contrôle de l'industrie nationale. Et tous deux ambitionnent de récolter la donnée à l'international. Quant aux pays plus petits, certains parviennent à équilibrer leur industrie. La Corée du Sud s'appuie sur un petit tiers de sites nationaux, un tiers de sites américains et un tiers de sites chinois. D'autres pays aussi différents que le Brésil, la Russie ou l'Iran sont en avance sur
l'Europe en la matière.
En Europe, il y a un usage monolithique des sites américains.
L'entreprise Apple va investir 1,7 milliard de dollars dans la construction de deux centres de stockage de données de 166.000 m² en Irlande et au Danemark, qui seront soi-disant alimentés par des énergies renouvelables.
Pour ce qui est des sites français, aucun n'accumule de la donnée.
Cette situation est plus qu'alarmante. Nous disposons pourtant en France du moteur de recherche, Exalead, développé par Dassault Systèmes. Pourquoi ne fait-on pas de son développement une cause nationale? Une mobilisation volontariste intelligente de l’industrie française du logiciel et des universitaires permettrait rapidement de mettre au point des outils logiciels nous permettant de « revenir dans le jeu ». L’excellence française en logiciel est reconnue.
Il existe aussi des moteurs qui ne conservent pas de données personnelles, comme Ixquick qui lui est un métamoteur de recherche, c’est-à-dire qu’il active une dizaine de moteurs de recherche, fait une synthèse des résultats et empêche ces moteurs de recherche qu’il a activés de glâner les données personnelles des utilisateurs, y compris leur adresse IP.
Sans entrer dans la compétition internationale, sans disposer de géants du stockage et du traitement des données et des services, et en particulier d'un moteur de recherche, de réseaux sociaux, de systèmes de blogs et de micro-blogs, de cloud, détenant des parts de marché importantes, non seulement
en Europe, mais également dans le reste du monde, il est peu probable que la voix de la France et de l’Europe puisse se faire entendre et qu'elle contribue à façonner les grandes orientations de la société de l'information.
Trois qualités décisives font le succès des systèmes américains: la qualité de service, le génie des applications et la pertinence du modèle économique associé.
Pour réussir, la France et l’Europe doivent promouvoir un modèle original compatible avec nos principes, mais qui réponde autant à des besoins que les systèmes que les Américains ont développés et qui ont changé le monde.
La révolution numérique
Elle sourd maintenant depuis des années dans les entrailles de la société. En fait depuis très longtemps, depuis que les hommes ont entrepris de « mettre en nombres » le monde qui les entoure, du comptage des têtes d’un troupeau aux comptes frelatés de Bygmalion, de la pression artérielle de tout un chacun au PIB de tel pays ou tel autre. Tout est mesure et comparaison. Leibniz au XVIIe siècle déjà disait que deux symboles suffisaient pour représenter tous les objets, annonçant à son corps défendant le calcul binaire dans les machines à calculer qui sera proposé dès 1938 par Louis Couffignal. L’apparition de l’informatique a généralisé, accéléré le phénomène et nous n’en sommes qu’aux débuts. L’industrie et l’économie de demain, et déjà en partie d’aujourd’hui, seront dépendantes de la simulation numérique.
Pour concevoir les avions aujourd’hui ou les carrosseries de voitures, voire les bateaux, on utilise des souffleries numériques qui simulent les souffleries traditionnelles sur des super-ordinateurs.
La simulation numérique outil industriel
Mais cela ne suffit plus, la simulation numérique intervient de plus en plus tout au long du processus industriel, dans la séquence conception-fabrication-distribution, comme dans l’analyse des réactions des clients. La simulation permet d’améliorer, élargir et affiner l’exploration des possibles, de tester différentes possibilités sans autres conséquences que quelques heures de calcul. Cela donne la possibilité de diminuer les coûts et durées de conception en permettant par exemple de mettre en évidence au plus tôt et sans grosses conséquences, les erreurs de conception ou les défauts de qualité. La simulation permet aussi de former des compétences.
Dans le domaine des économies d’énergie, elle est décisive. Dans l’industrie du transport, elle permet de diminuer considérablement le poids d’un véhicule pour le rendre moins gourmand en énergie et moins polluant, et elle seule le permet. « Pour garantir leurs objectifs de réduction d’émissions de CO2, tous les constructeurs automobiles allègent leurs véhicules. (…) On sort des zones de travail habituelles et la simulation prédictive est la seule voie économiquement viable pour comprendre le comportement de la matière, afin de développer ces nouveaux process de production. »1
Il est peu de domaines industriels qui y échapperont dans l’avenir. On ne pourra bientôt plus concevoir un nouveau produit sans être passé par la case simulation numérique. Ainsi pour l’élaboration de nouveaux médicaments, l’usage de la simulation va permettre de personnaliser les traitements. Il en va même pour l’élaboration de nouvelles molécules. La combinatoire qui y est associée ne permet pas de se lancer dans une expérimentation en laboratoire qui prendrait un temps démesuré. Une modélisation/simulation bien conçue et bien menée sur des machines puissantes doit faire gagner des échelles de temps très importantes. En médecine comme en cosmétologie, des méthodes combinant approche biologique et simulation constituent une alternative à l’expérimentation in vivo. Cette façon de faire suppose toutefois l’accès à d’énormes puissances de calcul et à des logiciels sophistiqués, clés du développement industriel actuel.
Dans le domaine économique, à l’échelle d’un groupe, d’une entreprise, d’une région ou d’un Etat, l’élaboration de modèles statistiques fondés sur une analyse de très grandes quantités de données comportementales conduit à pouvoir fixer les prix et optimiser les marges au niveau de chaque magasin, optimiser les flux au niveau social, gérer la distribution de l’eau ou de l’énergie par exemple…
La simulation numérique devient un élément clef pour renforcer la capacité de développement d’une entreprise, sa réactivité, tout en réduisant les risques et incertitudes qui y sont liés et en améliorant sa santé économique dans le cadre d’une l’économie très concurrentielle.
Des outils conceptuels renouvelés et des super-ordinateurs
La simulation numérique nécessite des outils conceptuels d’un type nouveau. Il y faut une modélisation, un maquettage virtuel de ce qu’on souhaite simuler (produit, institution, procédé, molécules, services…), ce qui signifie une traduction mathématique, qu’elle soit discrète ou continue des objets étudiés et des lois qui les régissent. Un tel maquettage nécessite une quantité considérable de données et de mesures, une quantité d’autant plus considérable qu’on souhaite entrer dans le détail et avoir une simulation la plus réaliste possible. Qui plus est, il faut considérer les choses d’un point de vue dynamique. On n’en est plus seulement à simuler un objet en tant que tel mais en situation et en évolution la plupart du temps. Ce sont des systèmes de systèmes en interactions qu’il faut prendre en compte. La complexité devient telle qu’il faut faire appel à des capacités de calcul considérables. Il faut alors disposer de systèmes de traitement offrant la puissance de calcul, la capacité d’archivage de données, les logiciels et les compétences humaines adaptées pour transformer l’usage de la simulation numérique en un véritable avantage concurrentiel.
La puissance de calcul utile à l’obtention de cet avantage concurrentiel varie selon l’état de l’art, les secteurs d’activité et les marchés correspondants pour ce qui est des entreprises (du gigaflops au téraflops actuellement). Il est clair que le calcul Haute Performance (du peta à l’exaflops) permettra de repousser les frontières de ce qu’il est possible de faire par ordinateur en utilisant les plus rapides d’entre eux.
Cette puissance de calcul peut servir deux objectifs différents mais complémentaires :
- pouvoir réduire autant que possible le temps d’exécution d’un programme par nature complexe en nombre d’opérations à réaliser et s’appliquant à des volumes considérables de données.
- tester et comparer très rapidement un grand nombre de solutions en utilisant le même programme mais en faisant s’exécuter en parallèle de multiples instances de celui-ci avec des paramètres différents, notamment à des fins d’optimisations spécifiques.
Actuellement les ordinateurs les plus puissants accessibles au monde de l’industrie offrent une puissance de l’ordre de 1 Petaflops. Ce genre de machine est surtout utilisé par l’armée pour simuler des explosions thermonucléaires, évitant ainsi de tester ces engins dans l’atmosphère.
La simulation numérique se démocratise
L’usage industriel de la simulation est resté pendant longtemps l’apanage de grandes entreprises des secteurs de l’automobile, de l’aéronautique, de l’énergie et de la défense.
Au sein de ces secteurs d’activité, l’emploi de méthodes de simulation n’a cessé de se perfectionner pour améliorer les usages existants mais aussi en couvrir de nouveau.
L’augmentation de la puissance des ordinateurs et l’apparition de nouveaux algorithmes permettent régulièrement d’augmenter la taille des modèles et donc la qualité et la précision de la simulation. De nouvelles applications ont été rendues possibles comme la simulation électromagnétique ou acoustique dans l’aéronautique. De nouvelles méthodes et de nouveaux procédés voient le jour. C’est le cas de la conception de nouveaux matériaux ; ce sont aussi les progrès vers la mise au point de modélisations et simulations à la fois plus globales et plus systémiques.
Outre les secteurs traditionnels, on observe une pénétration croissante de l’emploi du calcul intensif au sein des domaines de la Finance, des Télécommunications et énergie (simulation de réseaux…) ou encore de la Santé. Dans les secteurs de la Chimie ou de la Biotechnologie, des progrès importants ont été obtenus par l’emploi de méthodes relevant de la simulation au niveau moléculaire en particulier.
Du médicament au jeu vidéo
Des champs d’application entièrement nouveaux sont en train de s‘ouvrir.
La conception de médicaments est un bon exemple de ce phénomène. En effet la simulation numérique permet de remplacer dans certains cas une expérimentation in vivo par une expérimentation in silico et réduire ainsi les temps et les coûts de conception. Par ailleurs l’usage d’ordinateurs très puissants rend possible l’analyse de quantités considérables de données tant génétiques que cliniques permettant par exemple l’extraction de connaissances pharmaco-génomiques. Les méthodes développées facilitent en outre l’analyse de la personnalisation des traitements et la prise en compte de pathologies complexes comme celles qui apparaissent au sein de populations vieillissantes, ou dans les « maladies orphelines ».
Le domaine du Multimédia et des jeux devient de plus en plus, lui aussi, un domaine privilégié de l’emploi de la haute performance dès lors que les images, les films, les sons, les jeux sont devenus des objets numériques. Ainsi le calcul intensif permet dans un temps raisonnable, l’amélioration du rendu naturel de scènes artificielles.
De même la simulation des ensembles urbains tant du point de vue de leur conception que celui de l’analyse de la pollution, du trafic ou encore de l’énergie constitue un champ prometteur d’application du calcul intensif.
En quelques années seulement, transistors, clics, bits et fibres optiques se sont glissés dans tous les plis de nos sociétés, jusqu’à l’intime.
Un capitalisme cognitif et consumériste
La révolution numérique est avant tout un nouveau moyen de capturer notre sueur, notre temps de cerveau disponible, une nouvelle occasion pour le capitalisme de bousculer les processus de production et de serrer d’un tour supplémentaire la vis de l’exploitation de la force de travail.
Le calcul, la mémorisation, la résolution de problèmes complexes, la communication, la prise de décision, et surtout la modélisation sous toutes ses formes, et en particulier des comportements, toutes opérations cognitives qui entrent dans la machine et bouleversent les tâches de production. Le travail de bureau se trouve désormais soumis, grâce aux logiciels, à de strictes « procédures qualité », à la manie du « reporting », rationnalisé, « grammatisé », industrialisé, déshumanisé. L’open space abrite les ordinateurs comme le hangar les machines-outils. L’informatique, la finance et toutes sortes de services deviennent des « industries ».
Les fonctions cognitives servant à bien d’autres choses qu’aux activités professionnelles, toutes les sphères de nos vies sont affectées. Pour le capital, nos comportements, nos relations, tout ce qui est humain peut être créateur de valeur économiquement exploitable, à condition d’être compris et systématisé. Les outils numériques collectent l’information, la traitent, la distribuent. Nos leviers intimes décortiqués, schématisés, modélisés neuro-scientifiquement, traduits en chaînes de causes et d’effets permettent à la publicité d’orienter nos pulsions au service de l’acte d’achat. Les écrans prétendent élever nos enfants, libérant du temps de notre cerveau disponible et éternellement accessible grâce aux connexions mobiles pour les lectures et médias des industries culturelles, du développement personnel, de tout ce qui nous aide à « gérer notre temps », « booster » nos performances, normaliser nos comportements.
Derrière, il y a le numérique et ses réseaux. Ces technologies portent le germe d’un degré sans précédent d’exploitation et de domination. Mais pour autant, il ne s’agit que de degré, il n’y a là rien de fondamentalement nouveau.
Le numérique nous y ramène : il n’y a que deux classes sociales en lutte
Cette e-révolution s’insère dans l’histoire du capitalisme et de ses révolutions dans la façon de produire et d’exploiter. Aujourd’hui, c’est le cognitif qui passe à la machine.
Les corollaires de ce transfert sont bien connus : aliénation, prolétarisation, extorsion de la plus-value. Le travailleur attaché à la machine n’a plus besoin de savoir-faire autre que de faire fonctionner la machine (l’employabilité !), il lui est subordonné et doit s’intégrer à des processus de production qui le dépassent. Le sens de son travail lui échappe et seule sa force de travail brute est utile à la production et justifie sa rémunération. Le capitaliste, propriétaire de machines de plus en plus perfectionnées, dispose d’un ascendant symbolique et pratique qui assure sa mainmise sur la plus-value.
Les conditions salariales et d’évolution professionnelle d’un ingénieur restent bien différentes de celle d’un ouvrier à la chaîne, mais avec le déploiement d’une infrastructure numérique jusque dans les moindres replis du monde du travail, cette différence ne peut qu’être appelée à s’estomper. La crise actuelle de la sociale-démocratie et de son projet de société appuyé sur la redistribution n’est sans doute pas à chercher ailleurs que dans le déclassement structurel, inscrit dans la numérisation de la société, de tous ceux qui quelques décennies durant ont pu se considérer membres d’une classe moyenne. Keynésianisme et fordisme avaient réussi à le masquer, le numérique nous y ramène : il n’y a au fond que deux classes sociales en lutte, exploiteurs et exploités, tout le reste n’est qu’écran de fumée.
Ainsi au regard de l’histoire politique du capitalisme, la nouveauté n’est que celle de l’ampleur des phénomènes. L’histoire reste bien celle de la lutte des classes. Et si le numérique en réseau introduit une rupture, c’est par le biais d’une autre dimension de cette révolution technique.
L’information devient la marchandise dominante
La rentabilité maximale, à deux chiffres, ce n’est plus dans l’industrie lourde ni même le high tech qu’il faut la chercher, mais chez les Microsoft, Google, Apple, Facebook, les manipulateurs de l’information numérique. Et c’est la finance, avec ses milliers d’analystes à la recherche minutieuse de la moindre information de valeur, qui plus que jamais tient les rênes de l’économie mondiale.
Or , toute information est réductible à une suite de 0 et de 1, échangeable à travers la planète à coût de transaction quasi nul. C’est une marchandise sur un marché de fluidité pure et parfaite, un idéal libéral. Dans tous les secteurs économiques, la valeur est toujours plus associée aux étapes mobilisant le plus d’information, « à forte valeur ajoutée ». L’industrie ne vend plus rien d’important sans accompagner un produit, d’applications numériques, de bases de données. Et pour capturer la valeur, elle s’efforce d’évoluer vers le service, source de relation client plus étroite, de collecte, de valorisation d’information. Le « knowledge management », l’« organisation apprenante ».
Cette importance croissante de l’information a des conséquences politiques ; Individuelles d’abord, avec la fameuse fracture numérique, l’effet d’exclusion inhérent à la non-connexion ; collective aussi avec la redéfinition des paysages médiatiques autour de l’instantané, de l’ubiquitaire, du journalisme citoyen, de l’immédiat. Géopolitique également. On tue toujours pour des terres, des villes, de l’or ou du pétrole. Mais l’impérialisme a désormais aussi un visage numérique, qui déploie les grandes oreilles de sa NSA, multiplie les caméras de son Big Brother, impose la servitude volontaire de son Facebook et de ses Google glasses. L’information numérique est devenue la clé de voûte du système, le fétiche suprême, la marchandise dominante.
L’impossibilité du secret
Reste que l’information n’est pas une marchandise ordinaire, mais un bien « non rival » à obsolescence rapide. Dès qu’une information existe, elle est duplicable et si elle a du succès très vite ignore toute rareté. Or en économie de marché, où le prix est question de rapport entre offre et demande, la rareté est l’atout du vendeur, plus important que les critères d’utilité ou de travail nécessaire à la production du bien. C’est bien pour cela que la bataille est si rude actuellement sur les brevets, la propriété industrielle et tous moyens de recréer artificiellement une rareté. Il en va du pouvoir des capitalistes de dé-corréler à leur profit valeur d’échange et valeur d’usage, de décider des prix et donc des marges de profit.
Cette bataille pour ériger des murs sur le savoir est prise dans une contradiction. L’information plus que toute marchandise ne se valorise que dans l’échange, elle n’a pas de valeur en soi. Etre seul à savoir fabriquer un produit ne vaut que si le produit intéresse une clientèle, si ses usages possibles l’insèrent dans les usages d’autres produits et services, s’il est inséré dans des flux.
Contrairement au culte du secret qui a présidé jusqu’ici dans les procédés de fabrication dans l’industrie, aujourd’hui le paradigme est celui de l’ouverture. « Open innovation », « open space », externalisation, locaux vitrés, domination des fonctions transverses et du consulting. Il faut que l’information circule vite, sans barrière, non seulement dans l’entreprise mais vers et depuis ses clients et fournisseurs, dans son « éco-système ». Co-entreprises, projets collaboratifs, clusters, toutes les ouvertures sont bonnes pourvu qu’elles permettent d’accélérer les rythmes de l’innovation. Le nouveau capitalisme ne se soucie plus tant de soigner rente, stock et accumulation que de trouver le bon positionnement dans les meilleurs flux pour en capter le maximum avant tarissement et redistribution. Dans le monde interconnecté de l’ère du numérique, le secret est devenu anti- économique, impossible.
Le crépuscule de l’homme aux écus ?
L’homme aux écus d’autrefois apportait des éléments que les ouvriers n’étaient pas en mesure de réunir : machines, locaux, approvisionnements, relais commerciaux, capacités d’organisation. Il fallait avoir lu Marx pour savoir que cet apport bien réel ne justifiait pas l’extorsion de la valeur ajoutée, et l’ignorance de ce qui se passait « là-haut » pouvait tenir lieu de légitimité à la domination. Dans les rapports de production que l’ère numérique impose transparents, fluidifiés, sans secret, les mystères s’estompent et le mythe de la verticalité nécessaire s’effondre.
Le logiciel libre montre que la mise en commun volontaire et horizontale des efforts d’un grand nombre est capable de faire aussi bien qu’une entreprise classique. Et avec les fablab cette leçon promet de s’étendre à la production matérielle : les plans, le design, les usages d’un objet sont numérisables, échangeables, discutables à volonté, et la fabrication peut alors se faire sans difficulté partout où une machine à commande numérique compatible peut être mise en partage social. Même la finance, haut lieu de savoir ésotérique pour dominants initiés, se voit désormais suffisamment décortiquée, expliquée, démystifiée, pour que des mécanismes de financement participatifs, collectifs, démocratisés, émergent.
Ces changements ne sont qu’en germe et nous sommes dans l’entre-monde où la nouvelle infrastructure numérique peut servir autant l’hyper-domination et la guerre que l’émancipation et la construction d’une humanité réconciliée.
Si une société se caractérise par la façon dont les marchandises y sont produites et échangées, la révolution numérique en cours va être centrale et il convient d'en prendre la mesure ainsi que d'évaluer les potentialités dont elle est porteuse dans la perspective d'une société communiste comme instance de dépassement du capitalisme.
La France possède des atouts maîtres pour jouer un rôle majeur en la matière. La société BULL est la seule en Europe capable de construire les superordinateurs indispensables à l'industrie à venir. Seuls cinq pays au monde le peuvent1. Cette position de la France est menacée par le caractère privé de nos entreprises stratégiques qui ne sont en « bonne doxa» économique libérale que des marchandises comme les autres et susceptibles d'être vendues au plus offrant comme en témoigne l'affaire Alstom livrée à la CGE...
Nous entrons dans un mode de production avec des outils et des concepts qui permettent de libérer la force de travail humaine des tâches ingrates et plus particulièrement d'abolir le travail aliéné. En d'autres termes un autre mode de production et d'échanges, dans lequel l'exploitation n'est plus indispensable à la création de valeur, libérant la créativité et le travail humain est possible et devient de plus en plus nécessaire. L'enjeu est clair :« McAfee prédit que, si les innovations technologiques généreront des gains de productivité massifs par l’automatisation de plus en plus d’emplois, elles créeront aussi un chômage technologique de masse ». Il s'agit bien là de savoir si ces gains de productivité doivent permettre une explosion des profits et du chômage ou au contraire baisse massive du temps de travail aliéné et appropriation sociale.
Le développement impétueux de ces nouvelles forces productives oblige le capital international à se reconfigurer et pas seulement au plan financier. L'industrie à venir, c'est-à-dire là où se crée la valeur sera structurée par la révolution numérique. L'ampleur de ces changements conduit l'industrie, à s'organiser au plan mondial par domaines d'activités (aéronautique, informatique, construction navale, finance, ...) alors que l'organisation politique et culturelle de la planète est territoriale, il y a là matière à réflexion pour le mouvement révolutionnaire.
Ivan Lavallée 01/03/2015 Toulouse