Entretien avec Pierre Lévy (découvrez également son site Internet, ainsi que son compte Twitter). Retranscription intégrale d’une heure d’échanges avec le philosophe.
Extraits de biographie et bibliographie
« Pierre Lévy est un philosophe qui a consacré sa vie professionnelle à la compréhension des implications culturelles et cognitives des technologies numériques, à promouvoir leurs meilleurs usages sociaux et à étudier le phénomène de l’intelligence collective humaine. Il a publié sur ces sujets une douzaine de livres qui ont été traduits dans plus de douze langues et qui sont étudiés dans de nombreuses universités de par le monde.
Il enseigne aujourd’hui au département de communication de l’Université d’Ottawa (Canada) où il est titulaire d’une Chaire de Recherche en Intelligence Collective ».
Pierre Lévy est entre autres l’auteur des ouvrages suivants : Les technologies de l’intelligence (1990), L’intelligence collective (1994), Qu’est-ce que le virtuel ? (1995), Cyberculture (1997), Cyberdémocratie (2002), ou encore La Sphère Sémantique I (2011), dont il rédige en 2012 le second tome.
L’entretien s’est focalisé sur les thématiques suivantes : les médias, les nouvelles technologies et leur rapport avec la connaissance, la cognition. Par extension, des questions concernant la didactique (éducation avec, par et aux médias) ont été abordées.
Une nouvelle ère de la connaissance et des médias ?
Question : Vous semblez penser qu’une « nouvelle ère » au niveau des médias et de la connaissance s’offre à nous. Comment la caractériseriez-vous ?
« On est émerveillés par Google, mais on est en réalité à la préhistoire […] Je crois qu’on est vraiment au tout début de cette révolution : c’est comme si on avait essayé de deviner les conséquences de l’imprimerie au début du XVIème siècle ».
Je peux répondre à cette question très rapidement : en deux heures et demie, par exemple ! (rires).
En gros, je fais un raisonnement par analogie, c’est-à-dire qu’on constate historiquement que dans les sociétés qui utilisent l’écriture, il y a des modes de connaissance qui apparaissent, qui se développent, et qui n’existaient pas dans les sociétés qui ne connaissaient que l’oralité : les calendriers compliqués, les cadastres, la comptabilité économique ou fiscale, les traités de médecine, d’astronomie, une certaine maîtrise de la géométrie… Bref, cela fait beaucoup de choses. Il y a aussi une caste de scribes qui gèrent toute la connaissance qui est écrite, et qui sont entrainés spécialement. Si la didactique vous intéresse, on sait bien que ce n’est pas Charlemagne qui a inventé l’école, ce sont les scribes, dans toutes les sociétés (égyptienne, mésopotamienne, chinoise, etc.).
Je constate également – et je ne suis pas le seul – qu’avec l’invention de l’alphabet, qui est un système d’écriture extrêmement puissant (puisqu’il n’est composé que d’une trentaine de signes, tandis que les anciens systèmes idéographiques avaient des milliers de signes), on peut démocratiser l’usage de l’écriture et de la lecture (il y a plus de gens qui peuvent apprendre à lire et à écrire) et on a des formes de connaissances encore plus abstraites. Oui, il y avait de la géométrie chez les égyptiens, mais chez les grecs, vous avez de la géométrie démonstrative. Il commence à y avoir des religions à visée universelle. La philosophie, elle aussi, vise l’universalité. Il y a aussi des formes politiques plus puissantes : la Cité, la République, la démocratie ; des formes d’empires basées sur l’alphabet (Empires grec, romain, arabe, etc.) qui ont assez facilement dominé les formes politiques qui étaient basées sur les écritures idéographiques. Je dirais qu’il s’agit d’un stade culturel plus puissant.
J’explique cela en disant qu’au fond, la grande spécificité de l’Humanité, c’est le langage, on peut généraliser en évoquant la manipulation symbolique. Ce que fait l’écriture, c’est de rendre des symboles durables. Les idéogrammes permettent une augmentation de la mémoire et des opérations sur les symboles, et donc, finalement, une plus grande maîtrise de l’environnement, une plus grande complexité dans la société, etc.
Ce qui se passe avec l’alphabet – mais là aussi, on peut généraliser, par exemple avec le système de notation des nombres par position – c’est une digitalisation des symboles. Vous avez un petit nombre de symboles et c’est par combinatoire qu’on arrive à maîtriser toutes les significations possibles que l’on peut construire avec ces symboles. Avec l’alphabet, c’est assez clair. Avec la numération par position, aussi : vous avez dix chiffres, et avec ces dix chiffres, vous pouvez composer absolument tous les nombres que vous voulez. En plus, vous avez des algorithmes uniformes (multiplication, division…), tandis que si vous essayez de faire une multiplication avec les chiffres romains, je vous souhaite bonne chance (rires). Avec les chiffres romains, vous avez un algorithme différent pour des nombres différents.
Vous voyez, il existe une espèce de progrès dans le codage symbolique : d’abord, le codage tout court (le stade idéographique), et ensuite dans le fait de rendre les opérations plus simples et plus puissantes (le stade digital). Pour moi, l’étape suivante, c’est celle des médias, dont le premier, le plus connu, est bien entendu l’imprimerie. Là, ce qui se passe, c’est qu’il y a une mécanisation de la multiplication des symboles. Ce que font les médias classiques, traditionnels, c’est mécaniser la reproduction ou la diffusion (c’est le cas de l’imprimerie, mais aussi dans le cas de la radio ou de la télévision). Vous avez des symboles (écrits, images, sons, musique…) et ceux-ci sont multipliés et diffusés par des machines. Il est très clair que les sociétés qui ont maîtrisé ces outils-là sont immédiatement devenues plus puissantes que les autres. La révolution industrielle vient de l’imprimerie. D’une certaine façon : c’est l’imprimerie qui est le début de la révolution industrielle, puisque c’est le premier objet qui a été fabriqué à l’identique et selon des méthodes mécaniques pour une production de masse. Derrière la révolution industrielle, il y a la révolution des sciences expérimentales modernes – basée sur la communication imprimée –, le développement des bibliothèques, l’opinion publique moderne qui donne naissance à la démocratie moderne (puisque s’il n’y a pas d’imprimerie, il n’y a pas de journaux ; s’il n’y a pas de journaux, il n’y a pas d’opinion publique) et ça, ça va jusqu’à la radio et la télévision.
Pour moi, avec l’informatique, ce qu’on automatise, c’est la transformation des symboles. Autrement dit, ce n’est plus seulement leur multiplication, leur diffusion, mais aussi leur transformation qui est mécanisée. C’est exactement ce qui se passe lorsque vous faites de la synthèse musicale, des dessins animés avec des ordinateurs, du traitement de texte… Tout ce que font les logiciels, au fond, c’est de la transformation automatique de symboles. L’ordinateur est un automate symbolique. Il fait bien sûr des additions, des multiplications, des opérations logiques, mais il fait aussi de la musique, des images, du texte, etc. Tout cela augmente considérablement la puissance de manipulation symbolique humaine, à savoir ce qui était notre spécialité dès le départ, avec le langage.
On se trouve aujourd’hui dans une situation où quasiment toutes les mémoires sont en train d’être numérisées : musées, archives, etc. En outre, ces mémoires numérisées sont mises en ligne. Et donc, on a aujourd’hui une immense mémoire – complètement chaotique, hétérogène (on est émerveillés par Google, mais on est en réalité à la préhistoire) – et nous avons la possibilité de faire des recherches, des transformations, des analyses, tout ça automatiquement sur cette immense mémoire.
Je crois qu’on est vraiment au tout début de cette révolution : c’est comme si on avait essayé de deviner les conséquences de l’imprimerie au début du XVIème siècle. Aujourd’hui, on est encore en train d’utiliser les concepts et les institutions qui sont hérités de l’ère des médias. C’est plus ou moins transposé dans le monde numérique, mais la culture originale qui exploite toutes les possibilités de cette mémoire et de cette puissance de calcul, à mon avis, elle est encore à venir. J’ai une perspective anthropologique sur les choses : je vois ça à grande échelle, sur le long terme.
Question : Vous dites que la numérisation va de pair avec une capacité de traitement automatisé nouvelle. Dans quelle mesure ce type de capacité n’existait-il pas avant l’ère informatique, et comment l’optimiser davantage ?
Avant l’ère informatique, il n’y avait pas de traitement automatisé. Il pouvait y avoir des organisations systématiques pour un traitement manuel local, comme les archives, les bibliothèques, la comptabilité, etc. et une utilisation artisanale de cette organisation systématique. Mais tout cela devait être fait « à la main » et « à l’œil », et sur des quantités très limitées par rapport à ce qui existe aujourd’hui. En plus, on n’avait absolument pas de mémoires à l’échelle mondiale, comme aujourd’hui, ni une profondeur temporelle aussi grande dans ces archives mondiales.
C’est sûr qu’il y a aujourd’hui beaucoup d’archives héritées de l’ère pré-informatique, mais ces archives sont en train d’être numérisées. Mais nous devons être attentifs à une nouvelle forme d’archive : quasiment toutes les transactions empruntent le canal numérique et toutes les informations (scientifiques, sociétales) sont entreposées dans des bases de données que l’on peut croiser entre elles. Cela fait naître des possibilités qui n’existaient pas du tout avant. A cela, vous ajoutez ce que je disais concernant la puissance de calcul : à partir d’un certain degré de changement quantitatif, vous arrivez à des opérations qui n’étaient qualitativement pas pensables avant. Par exemple, des simulations de modèles complexes, ce n’est pas quelque chose que l’on pouvait faire avant l’ère informatique.
Vers de nouveaux systèmes symboliques ?
Question : Dans La sphère sémantique (tomes I et II), vous abordez la nécessité de concevoir de nouveaux systèmes symboliques qui nous permettraient d’exploiter la nouvelle puissance de calcul afin de transformer (collectivement) le déluge des données numériques en connaissances…
Ces systèmes symboliques ne sont-ils pas déjà présents ? Je pense à différents langages et codages : binaire, ASCII, etc.
Pour le dire différemment : en quoi les nombreux langages dont nous disposons actuellement ne suffisent-ils pas à appréhender la complexité, et à canaliser cette puissance de calcul dont nous bénéficions aujourd’hui ?
« On a aujourd’hui une capacité de mémoire et une puissance de calcul incroyables, mais on n’a pas les systèmes de codage ou les systèmes symboliques qui sont adaptés pour exploiter toutes ces nouvelles possibilités ».
Je pense que la base du codage binaire est là, ainsi que probablement l’ensemble des normes de fichiers. On peut diviser ça en plusieurs couches :
- Premier étage : l’adressage des informations par les systèmes d’exploitation dans les mémoires des ordinateurs, dans les disques durs en quelque sorte. Ça, c’est l’adressage des bits.
- Deuxième étage : l’adressage des ordinateurs dans le réseau. Ça, c’est Internet, avec tous les protocoles qui vont avec, tous les langages qui vont avec.
- Troisième étage : le Web organise l’adressage des documents ou des informations, non plus dans les disques durs, mais à l’échelle du réseau de telle sorte que l’on puisse considérer tout ce qu’il y a sur Internet comme faisant partie d’une seule base de données et qu’on puisse faire des hyperliens de n’importe quelle information vers n’importe quelle information.
Tout cela, on l’a déjà. Ce que je pense, c’est qu’il nous manque un étage d’adressage conceptuel, c’est-à-dire au fond l’équivalent du Dewey, utilisé pour les bibliothèques. Le problème, c’est que le Dewey fonctionnait en allouant un sujet à un espace physique. Par exemple, tout ce qui concerne la géographie, ça va être sur cette étagère. Mais ce genre de systèmes est très limité. S’il y a un livre qui est d’histoire et géographie, on ne sait pas sur quelle étagère on le met. Certains vont dire : « et si on utilisait une classification multi-facettes ? », et ça existe (la « colon classification » de Ranganathan), mais de toute façon, elle n’est pas faite pour être manipulée automatiquement. Puis le Dewey, c’est quelque chose qui a été mis au point au XIXème siècle, les catégories sont rigides et ne correspondent plus à la réalité de documentation contemporaine…
Donc, ce que je crois, c’est qu’on a besoin d’un langage qui soit manipulable automatiquement aussi bien qu’un langage de programmation (qui soit donc vraiment fait pour communiquer avec les ordinateurs), mais qui ait en même temps la capacité d’expression sémantique d’une langue naturelle, de telle sorte que l’on puisse non seulement faire des opérations arithmétiques et logiques automatiquement, mais aussi des opérations sémantiques, c’est-à-dire de relations, d’analogie, de complémentarité, de différence, d’implication sémantique, de relations entre une proposition complexe et le texte dont elle est issue, entre deux propositions qui font partie du même texte… Une espèce de langage qui, quand on l’écrit, produit automatiquement des circuits sémantiques ; une sorte d’hypertextualisation automatique.
Je prédis l’émergence et l’utilisation future d’un métalangage de ce type. D’une certaine façon, ce que je dis, c’est qu’on a aujourd’hui une capacité de mémoire et une puissance de calcul incroyables, mais qu’on n’a pas les systèmes de codage ou les systèmes symboliques qui sont adaptés pour exploiter toutes ces nouvelles possibilités. Jusqu’à présent, on n’avait que des supports statiques, ou bien des systèmes de reproduction, mais pas des systèmes qui permettaient de calculer automatiquement sur les symboles. La disponibilité de la transformation automatique de symboles appelle l’invention de nouveaux systèmes de signes.
Question : Votre entreprise me fait un peu penser, si vous me permettez l’analogie, à celle de Noam Chomsky, lorsque celui-ci tâche de formaliser une « grammaire universelle ». Pensez-vous qu’il est possible concrètement de coder à ce point du lien et de l’hypertexte entre des propositions qui relèvent d’un langage aussi complexe que le langage naturel ?
Oui, je pense que c’est possible. Je pense que c’est possible puisque je l’ai fait !
Ce qu’a dit Chomsky, et qui est maintenant je pense généralement accepté, c’est qu’il y avait quelque chose d’inné dans le système cognitif humain, qui lui permettait de traiter la complexité syntaxique des langues. Cette capacité innée, les autres animaux ne l’ont pas. On peut même savoir à peu près où cette capacité s’inscrit dans notre cerveau. Il y a des universaux syntaxiques, sans aucun doute, dans toutes les langues humaines. Il y a toujours des postmodernes extrémistes qui vont dire qu’il y a des langues sans verbes ou des langues sans noms, mais ce n’est pas vrai : toutes les langues ont des verbes ou des noms, ou du moins des fonctions verbales et nominales. La syntaxe consiste essentiellement à articuler les deux, les noms et les verbes.
Maintenant, cette grammaire universelle de Chomsky n’est pas suffisante. Une fois qu’on a formalisé des propriétés syntaxiques universelles de toutes les langues naturelles, il faut encore envisager les autres dimensions de la langue : sémantique et pragmatique. Ce que j’ai fait, c’est inventer un code, une langue, spécialement conçue pour que le décodage sémantique puisse être automatisé. Évidemment, les langues naturelles n’ont pas été faites pour ça. Notre cerveau peut les décoder, mais pas les ordinateurs… Une phrase simple, sur Google translate, vous arrivez à peu près à comprendre ce que cela veut dire ; une phrase de Proust, oubliez ça (rires) ! Dès que cela commence à être vraiment de la langue complexe, on n’y arrive plus. Mais je crois que si l’on construit une langue qui est spécialement conçue pour l’analyse sémantique automatique, il n’y a aucune raison que cela ne fonctionne pas.
Bon, c’est sûr, j’y ai passé dix ans. Je vous dis ça, vous êtes sceptique. C’est tout à fait normal, puisque aucun outil pratique n’existe encore. Mais de toute façon, même si la langue que j’ai inventée n’est pas adoptée, ce qui est tout à fait possible, je reste certain que c’est dans cette direction que les choses vont évoluer. Il ne faut pas faire seulement un effort d’invention purement technique, mais aussi un effort d’invention ou de créativité symbolique pour tirer parti des nouveaux outils de la meilleure façon possible. Il n’y a pas que des innovations techniques ou sociales. Il y a eu dans l’histoire énormément d’innovations symboliques : l’écriture, l’alphabet, le système de notation des nombres, les langages scientifiques, les mathématiques, etc.
Quel regard vis-à-vis des nouvelles technologies ?
Question : Vous semblez envisager les médias comme un vecteur d’émancipation, au niveau intellectuel (puissance de calcul, capacité de stockage…), mais aussi citoyen, culturel. Vous considérez-vous comme optimiste (voire idéaliste) par rapport aux nouvelles technologies ? Demandé autrement, comment considérez-vous votre regard vis-à-vis de ces nouvelles technologies ?
« Ce que je crois, c’est que dans les siècles qui viennent, on va avoir une révolution des sciences humaines qui sera comparable à la révolution des sciences de la nature ».
Il y a ce que les gens qui parlent anglais appellent le narrative. Le récit. On ne peut pas faire autrement que de raconter une histoire, même quand on prétend qu’on ne raconte pas d’histoire, parce que justement l’esprit humain fonctionne comme ça. On produit des récits, on ne peut pas faire sens sans produire de récits. Moi, ce qui m’intéresse, c’est l’augmentation de la puissance cognitive. Il me semble que la civilisation pharaonique égyptienne avait plus de connaissance, plus de maîtrise de son environnement, plus de richesse culturelle que les petites tribus nomades qui étaient dans le désert autour de la vallée du Nil. Il me semble aussi qu’il y a quelque chose qui s’est inventé de nouveau et d’intéressant avec les cultures alphabétiques. Si on pense à la révolution des sciences modernes, la vision du monde de Newton ou de Leibniz est quand même plus riche ou plus intéressante que celle de ceux qui disaient « la Terre est plate ». Dans mon récit, il y a plus de connaissance du côté de Leibniz et de Newton que de ceux qui disent « la Terre est plate ». Le fil conducteur de mon récit, c’est celui de l’apprentissage de l’Humanité. Je vois les choses de ce point de vue-là.
Ce qui nous attend au XXIème-XXIIème siècles, c’est une sorte de révolution scientifique, qui ne serait pas celle des sciences de la nature. Cette dernière a déjà eu lieu, d’une certaine façon. Bien évidemment, à l’intérieur des sciences de la nature, il y a des paradigmes qui se succèdent et bien des découvertes sont encore à venir. Ce n’est pas quelque chose de statique. Mais il reste qu’une nouvelle histoire scientifique a commencé au XVIème siècle et a rompu avec ce qui existait avant. Cette nouvelle époque de la science est marquée par le développement des formalismes mathématiques, des instruments d’observations comme le télescope et le microscope, toute la démarche expérimentale, le développement de la communauté scientifique et ainsi de suite…
Je prédis que, dans les siècles qui viennent, nous allons assister à une révolution des sciences humaines qui sera comparable à la révolution des sciences de la nature, et que l’analyse automatique de toutes les données que l’on pourra trouver dans la mémoire numérique universelle qui est en train de se construire sera la base de cette révolution scientifique.
Ce qui a permis le développement des sciences de la nature, c’est la construction délibérée d’un système de coordonnées (espace-temps) commun, d’unités de mesures communes, d’éléments de base communs (par exemple, en chimie, le tableau des éléments : toutes les molécules possibles et imaginables sont construites à partir de ces atomes). On a découvert le code génétique, on ne le réinvente pas à chaque fois, c’est toujours le même. Tous les êtres vivants utilisent le même code. Cela ne signifie pas qu’ils ont le même génome, mais le code est le même.
Il y a un métalangage commun dans les sciences de la nature qui fait que l’on peut accumuler les connaissances, perfectionner les théories, etc. Malheureusement, dans les sciences humaines, ce n’est pas le cas, parce qu’il n’y a pas grand-chose de commun d’une discipline à l’autre; à l’intérieur-même des disciplines, vous avez des théories très opposées les unes aux autres, et on ne peut même pas être d’accord sur ce avec quoi on n’est pas d’accord. Il y a un certain nombre d’évidences qui sont partagées dans les sciences de la nature qui ne le sont absolument pas dans la communauté des sciences humaines, ce qui fait qu’en termes de gestion des connaissances, il est quasiment impossible de progresser.
Quand je parle d’un système symbolique qui serait la base de progrès possibles de la connaissance humaine, c’est aussi cela que j’ai en vue : une systématisation conceptuelle qui puisse être commune à l’ensemble des chercheurs en sciences humaines, sans pour autant les forcer à adopter une théorie plutôt qu’une autre. L’accord porterait simplement sur la manière de formuler la théorie. Il pourrait y avoir une infinité de théories différentes, mais comme elles seraient formulées sur un mode calculable, on pourrait organiser une grande conversation, éventuellement très complexe, mais au moins une véritable conversation. Si on n’a pas quelque chose de ce genre, il sera impossible d’exploiter cet océan de données auquel nous sommes confrontés. C’est le problème du système de coordonnées. Vous pouvez faire autant de cartes que vous voulez, mais si les géographes utilisent des systèmes de coordonnées différents, ils ne pourront pas collaborer dans la production d’une connaissance géographique de plus en plus utile et précise. Il nous faut maintenant un système de coordonnées sémantiques.
Une éducation aux médias ?
Question : A une autre échelle, au sujet de l’éducation aux médias, de « littératie médiatique » : comment éduquer à une utilisation critique (évaluation critique de la fiabilité des sources, par exemple), autonome, reconnaissant les risques… de ces nouvelles technologies ?
Y a-t-il des éléments d’utilisation critique qui peuvent d’ores et déjà se dégager ?
« L’information la plus fiable, c’est la plus transparente ».
En effet, là, on change d’échelle. Je me situe de préférence au niveau d’une révolution épistémologique, mais même avant ça, il y a une sorte de « micro » révolution épistémologique qui consisterait à dire qu’on laisse tomber les concepts de vérité et d’objectivité – au sujet des sciences humaines (thèmes politiques, culturels, etc.), je ne parle pas des sciences de la nature – et que l’on valorise la transparence. Le problème de la transparence consiste à se poser des questions de ce type : « quelles sont les sources ? Qui est l’auteur ? De quelles institutions fait-il partie ? Par qui est-il payé ? Par qui est-il cité ? ». Cela implique pour les gens de vérifier la transparence d’une information. La plus fiable, c’est la plus transparente. Par contre, on peut se méfier de celui qui dit qu’il dit la vérité et qu’il est objectif, mais sans citer ses sources, sans dire qui le paie,…
L’éducation dont vous parlez serait alors une éducation au repérage de la transparence des sources, et au niveau de l’émission, à être soi-même transparent. Pour qui fait un blog, un site web… Il s’agit de créer la confiance.
C’est important de comprendre qui est l’auteur et de quelles traditions il fait partie, de quels groupes il est le porte-parole…
En somme, laisser tomber les prétentions à l’objectivité, et accorder de l’importance à l’origine, se demander d’où ça vient.
Ce que j’essaie d’enseigner à mes étudiants, par exemple, c’est d’utiliser les réseaux sociaux comme un outil d’apprentissage collaboratif. Beaucoup croient que Facebook peut juste servir à mettre des photos de la fête de la veille, mais on peut en faire autre chose. On crée un groupe fermé, on se donne des règles (fréquence de publication, thématique des interventions, pertinence des interventions, fait de lire les autres interventions pour tâcher d’amener des éléments nouveaux, etc.) ; bref, penser l’environnement collaboratif, le rôle que l’on peut y jouer, apprendre à lire ou à écouter les autres dans ces environnements-là… Par exemple, poser une nouvelle question ou répondre à une question des autres, c’est très positif, mais poser une question que quelqu’un a déjà posée et à laquelle une réponse a déjà été apportée, c’est plutôt négatif, mal perçu. Ce sont les vieux trucs de la « netiquette », mais c’est toute une éducation, parce que les étudiants n’ont pas nécessairement déjà construit ces réflexes.
J’imagine l’indexation des informations avec mon langage, bien sûr. Mais aujourd’hui, qu’on le veuille ou non, on est toujours déjà constamment en train de catégoriser ou d’évaluer. Quand vous faites un « like » sur Facebook, vous faites de l’évaluation de document. Vous le signalez aux autres, vous dites que c’est bon. Si vous envoyez un message Twitter comportant un lien, le commentaire que vous faites sur ce lien fait office de catégorisation, encore plus s’il y a un « hashtag ». Il y a cette notion que tout le monde est en quelque sorte appelé à devenir documentaliste, pour soi et pour les autres. C’est une notion de travail collaboratif sur la mémoire. Chacun contribue à construire la mémoire, toujours dans cette vision d’intelligence collective. Les gens ne se sentent pas nécessairement responsables de cela, or s’il y a une éducation à faire, c’est justement pour qu’ils se sentent responsables de l’organisation de la mémoire collective.
L’intelligence : l’être humain ne pense pas seul
Question : l’intelligence collective semble être un concept récurrent chez vous (Cf. d’ailleurs L’intelligence collective – une recension de Jean-Pierre Meunier), que signifie-t-il ? Pourquoi l’intelligence doit-elle se construire, ou se construira quoi qu’il arrive (il me semble, à vous lire et à vous entendre) collectivement ?
Vous avez déjà répondu en partie en soulignant le caractère « macroscopique » et anthropologique sur l’évolution de la connaissance. Y a-t-il d’autres raisons ?
C’est une question d’anthropologie élémentaire, très connue depuis longtemps, en particulier par les philosophes. L’intelligence humaine n’est pas une intelligence isolée ou individuelle. On pense avec les langages hérités, avec les savoirs qu’on nous a transmis ; on pense à l’intérieur d’une tradition ou à la confluence de plusieurs traditions, mais on ne pense pas sans tradition. Il y a tout cet « hérité » de la connaissance. Il y a aussi tout cet aspect conversationnel, contextuel, interactif. On est sans arrêt plongés dans un bain de communication.
Si une personne s’imagine qu’elle est intelligente par elle-même, c’est qu’elle est totalement inconsciente de ce qui se passe en réalité.
Maintenant, ça ne veut pas dire que nous n’avons pas le devoir de contribuer à cette intelligence collective par une originalité personnelle. Si vous faites semblant que vous êtes intelligent tout seul, il y a très peu de chances pour que vous soyez original, parce que déjà, vous ne savez même pas vous situer par rapport à la connaissance héritée. C’est seulement lorsque vous reconnaissez ce que vous devez à la tradition que vous pouvez y ajouter quelque chose. Si vous avez oublié ce que vous avez appris de vos parents, de la société où vous vivez, de l’école, des médias, etc., vous avez oublié beaucoup de choses…
Vos propos sont tout à fait en cohérence avec des écrits que vous avez produits il y a déjà plusieurs années. Ils me font notamment penser à Jack Goody.
Bien sûr, il a été une grande inspiration…
Des écrits précurseurs…
Ce que vous dites-là m’évoque de plus anciennes publications, comme Les technologies de l’intelligence (une recension d’Alain Lavallée). Avant même l’essor d’Internet et des téléphones intelligents, vous décriviez par exemple le fonctionnement des hypertextes, de la navigation multimédia et leurs impacts aujourd’hui observables. Qu’est-ce qui a changé depuis ? Êtes-vous toujours en accord avec ces écrits précurseurs ? Sur quoi insisteriez-vous, qu’éviteriez-vous d’écrire, si c’était à refaire ?
C’est une question très intéressante. Si vous lisez mes livres, vous vous rendez compte que je disais des choses que personne ne voyait à l’époque où je les ai publiés et qui sont absolument évidentes maintenant. Par exemple, dans Les technologies de l’intelligence [1990], je parle d’une convergence des hypertextes et des réseaux d’ordinateurs : c’était avant le web. A l’époque, personne ne disait ça. Enfin, pas complètement : il y avait Ted Nelson qui en avait parlé, ainsi que quelques visionnaires, comme Douglas Engelbart. C’était quoi qu’il en soit un très petit groupe de gens, et en tout cas, certainement pas les journalistes que tout le monde écoute.
Quand j’ai publié L’intelligence collective, c’était en 1994. Vous ne trouvez pas le mot « web » dans ce livre, parce que personne ne connaissait le web à ce moment-là. Il est devenu public en quelque sorte en 1994, même si Tim Berners Lee avait commencé à le formaliser dans sa tête en 1991 et qu’il commençait à y avoir de petites applications : le temps que tout le monde se rende compte de tout cela, on était en 1994. J’étais conscient du web à ce moment-là, mais les délais entre la remise du manuscrit et la publication à l’époque ont fait que je n’ai pu le mentionner tel quel quand le livre est sorti.
J’en ai parlé dans le livre suivant, Qu’est-ce que le virtuel ? (une recension de Hugues Peeters). Ce livre-là, c’était avant Wikipédia, avant les logiciels libres, avant les réseaux sociaux, avant toute la mode des communications collaboratives sur Internet, etc. Et évidemment, les journalistes m’ont traité de tout.
Tout ça m’encourage dans ce que je fais maintenant. Je me dis que personne ne le voit, personne n’y croit, mais dans 15 ans… (rires).
Il y a une chose que je regrette quand même. Dans Les technologies de l’intelligence, j’avais écrit au départ qu’on allait avoir un immense hypertexte qui allait être aussi grand que le réseau d’ordinateurs.
J’ai ensuite fait lire ça à des amis informaticiens qui m’ont tous dit que c’était techniquement impossible : « on ne peut pas faire de base de données [matérielle] qui contienne tout ».
Il n’y en a pas un seul qui a pensé qu’au lieu de faire une base de données réelle, on pouvait faire une base de données virtuelle, avec juste un système d’adressage ; toutes les données seraient contenues dans une foule de bases de données matérielles différentes, mais qui auraient le même système d’adressage, c’est-à-dire le web. J’ai donc mis des petites restrictions dans mon texte, j’ai émis des réserves comme quoi je savais que c’était impossible. Mais en fait, ça ne l’était pas ! Si je devais le réécrire maintenant, je dirais que c’est possible ! J’ai ai cédé dans ma jeunesse à l’absence de vision de la majorité des gens, mais je n’y céderai plus maintenant (rires).
Émancipation culturelle et démocratie
Question : je reviens sur la question des médias comme vecteurs d’émancipation, ici culturelle, en termes de démocratie (Cf. Cyberdémocratie)… Qu’en pensez-vous ?
« Une prédiction ? Dans quelques années, l’accès à l’Internet sans fil haute vitesse sera considéré comme un droit de l’homme imprescriptible »
Si du point de vue de la cognition ou de l’apprentissage, l’émancipation est du coté de l’augmentation de la connaissance, du point de vue politique, elle est du coté de l’augmentation de la liberté d’expression.
C’est le principal acquis : plus de points de vue différents peuvent s’exprimer. Avant Internet, les médias sociaux et les blogs, l’expression publique était canalisée par les médias, ou par des médias possédés par des partis ou par des gouvernements, par certaines orientations politiques.
Quand j’étais jeune, vous aviez au fond quatre ou cinq orientations politiques différentes. Vous lisiez l’Humanité ou vous lisiez Le Figaro ou encore Le Monde… C’étaient comme des partis politiques en quelque sorte, et vous aviez l’actualité du point de vue de ces quatre ou cinq orientations politiques. Aujourd’hui, vous avez une variété, une diversité et une réactivité beaucoup plus grandes. La circulation de l’information peut de plus en plus difficilement être bloquée. Vous voyez aussi, dans toutes ces révolutions, les activistes avec leurs petits téléphones portables, qui prennent toujours des photos ou vidéos de ce qu’ils voient autour d’eux et les diffusent directement sur Youtube. C’est essentiel du point de vue de la démocratie : la liberté d’expression est très importante pour fonder la démocratie. A partir de là, vous avez la liberté de circulation des informations et donc, possiblement, une délibération entre les citoyens qui peut aller plus loin ; une réflexion collective qui peut aller plus loin.
Tout ça ne veut pas dire qu’il n’y a pas de propagande, de contre-propagande ou de manipulation, mais cela devient plus intéressant que quand il y avait seulement manipulation par la télévision d’État. Maintenant, vous avez cinquante groupes qui peuvent essayer de vous manipuler, c’est déjà plus amusant.
Question : vous dites qu’il y a un potentiel de délibération collective plus grand. En corollaire, qu’en est-il de l’aliénation, d’autant plus dans la mesure où il y a création de nouveaux langages, de nouveaux symboles… ? N’y a-t-il pas un risque que des personnes se retrouvent en marge, mis à l’écart de ces codes (quid par ailleurs d’un formatage par rapport aux modèles hégémoniques ?) ?
C’est selon moi le thème classique de la fracture numérique. Une révolution dans la communication ne peut pas s’imposer partout, universellement, au même degré et au même moment. Si c’était vrai, cela signifierait que nous sommes vraiment dans une situation totalitaire effrayante. Les choses se passent sur un mode plutôt organique : il y a des centres ici et là, puis les choses se diffusent, se transforment et s’ensuit une transformation organique de la situation. Je disais qu’il y avait un potentiel émancipateur d’Internet, et tout le monde me disait que je condamnais les africains, tel un « salaud de colonialiste ». Je répondais alors que les africains voulaient Internet et finiraient par l’avoir ; on voit aujourd’hui que la diffusion va finir par être universelle. Quand vous pensez qu’au fond, le web date de la toute fin du XXème siècle, on est seulement en 2012, ce n’est presque rien à l’échelle de l’évolution culturelle. Quand vous voyez la rapidité avec laquelle se répand ce nouveau moyen de communication, on ne voit pas que c’est réservé à de petites élites, au contraire. En revanche, il est clair que plus les gens ont d’éducation (sciences, philosophie, médias…) et mieux ils pourront exploiter tout ça. La vraie différence n’est pas dans l’accès aux outils ou dans l’accès aux codes, elle est dans l’intelligence collective que les gens sont capables d’actualiser par leur éducation, par les traditions dont ils héritent.
En guise de conclusion, Pierre Lévy a proposé une prédiction de son plein gré : « Une prédiction ? Dans quelques années, l’accès à l’Internet sans fil haute vitesse sera considéré comme un droit de l’homme imprescriptible »… Rendez-vous dans 15 ans ?
Interview très intéressante (!) même si je ne comprends pas tout (Les technologies de l’intelligence me semble moins difficile à appréhender que La sphère sémantique, je dois l’avouer…)
…Mais deux choses me chiffonnent…
-On évoque le cas de Dewey comme limité parce que devant faire l’objet d’un choix pour le rangement, mais Dewey comme la CDU d’Otlet et Lafontaine servent également pour l’indexation (c’est-à-dire pour la description intellectuelle des publications) – et l’indexation autorise autant d’indices que nécessaire -… La limite du rangement du livre sur une étagère (et pas deux, en dépit de ses sujets plus nombreux) me semble être une limite qui n’en est pas une… ?
-Si le système de Dewey est fermé et obsolète dans certains domaines, pourquoi n’évoque-t-on pas génériquement le cas des thésaurus qui comportent des relations sémantiques telles que la hiérarchie, l’équivalence, l’association, et qui sont de surcroit ouverts, mouvants, adaptables ? Ce type d’outil ne pouvait-il pas être à la base de la création de ces nouveaux systèmes sémantiques?
« Pensez-vous qu’il est possible concrètement de coder à ce point du lien et de l’hypertexte entre des propositions qui relèvent d’un langage aussi complexe que le langage naturel ? » – « Je pense que c’est possible puisque je l’ai fait ! »
Je rêverais d’assister à une démonstration!! 🙂
Elle m’évoque une question de plus : quid du traitement des données iconiques (et sonores) ? Pierre Lévy s’est-il penché sur ce type de cas aussi ?
Passionnant sujet, en tous les cas !
Merci beaucoup pour ce commentaire.
Moi-même, je me suis posé plusieurs questions au sujet de la problématique de l’indexation. En effet, comme Internet semble davantage procéder avec du langage naturel, je me demande quelle est la pertinence de l’algorithme de Google, ou encore de l’indexation « collaborative » via des (hash)tags, des wikis, des agrégateurs de contenus, etc. L’hypertextualisation sémantique n’est-elle pas davantage affaire d’une création collaborative, dynamique et évolutive ? Ces questions me sont venues par la suite. Il reste que je ne me rendais pas compte à quel point des inventions de langages sont advenues couramment dans l’histoire humaine : en ce sens, il ne serait effectivement pas étonnant que de nouveaux systèmes soient créés pour enrichir notre gestion des savoirs. Reste alors selon moi la question de l’uniformisation ou encore de l’aliénation (au sens où le traitement automatique semble pouvoir procéder sans l’être humain, qui pourrait ne même pas en maîtriser les fondements ni même faire lui-même les manipulations, tout comme on utilise des technologies sans savoir comment elles fonctionnent) qui pourrait en découler.
Quant à la démonstration, Pierre Lévy t’enjoindrait probablement à lire les deux tomes de La Sphère Sémantique ;-).