----------------> 2015. Fédération Wallonie-Bruxelles. writing.

Humanité augmentée et Big Data

publish the 27 October 2015 at 1 h 14 min

Extrait du chapitre consacrée à l’intelligence artificielle d’une note sur le numérique adressée à l’attention du cabinet de la Ministre Joëlle Milquet suite à une demande de ce dernier de lui fournir quelques réflexions sur le sujet d’une vision du numérique pour les 10 prochaines années.

L’objectif de ce texte est de poser quelques jalons sur ce que pourrait être cette humanité dite “augmentée”, et d’esquisser les lignes de force de cette dynamique liée à l’IA et au Big Data, qui façonnent déjà, en sourdine, nos sociétés connectées. Une fois ces lignes dessinées, il s’agira aussi de proposer, modestement, quelques pistes de réflexion et d’action pour les décideurs publics, afin qu’ils puissent anticiper, encadrer, voire orienter ces mutations plutôt que de les subir.

[…]

Sans entrer dans le débat, il est tout de même intéressant de noter que le terme anglais “intelligence”, tel qu’utilisé dans “Artificial Intelligence”, ne recouvre pas exactement la même notion qu’en français. En anglais, “intelligence” renvoie davantage à des capacités logiques, analytiques ou de traitement de l’information, tandis qu’en français, le mot reste largement associé à une intelligence humaine, consciente et réflexive. Cette différence, en apparence subtile, pourrait expliquer des visions et des attentes divergentes du public non anglophone. Ce détail terminologique pourrait ainsi éclairer certaines dissonances dans la perception publique et politique de ce que doit – ou ne doit pas – être une “intelligence artificielle” selon qu’on soit anglophone ou francophone.

Fin février 2015, et pour la première fois, un ordinateur a été capable de battre un être humain à plus d’une trentaine de jeux classiques d’Atari (dont le célèbre “Space Invaders”)[i]. Si c’est une première, c’est que l’ordinateur n’avait pas été programmé pour jouer à ces jeux, mais plutôt pour apprendre seul à y jouer. Apprendre à apprendre a toujours été le Saint Graal de l’informatique, et les avancées des dernières années se sont révélées exponentielles. La recherche sur l’intelligence “artificielle” ne peut créer qu’une espèce de cercle où chaque découverte facilite les suivantes. Et c’est bien ce qui inquiète certaines personnalités du monde scientifique, comme le très médiatique physicien Stephen Hawking, qui parle même de “menace pour l’espèce humaine”[ii]. Des chercheurs de l’université de Cambridge placent même aujourd’hui l’intelligence artificielle comme l’un des quatre facteurs “d’apocalypse”, au même titre que le réchauffement climatique[iii].

Le problème que l’homme a jusqu’à présent rencontré dans l’élaboration d’une Intelligence Artificielle dite “forte” (AIG)[iv] est, outre les limites matérielles (la puissance de calcul nécessaire), le fait qu’il doive lui-même développer et programmer les logiciels susceptibles de faire émerger une telle intelligence. Or, aucun cerveau sur Terre n’a encore été capable de décrire avec précision les mécanismes qu’il mobilise pour atteindre ses propres fonctions. La connaissance du fonctionnement du cerveau humain reste balbutiante, non modélisable. Nous savons accomplir certaines tâches, mais ignorons le plus souvent par quels chemins nous y parvenons. Même si nous devions atteindre, dans les prochaines années, une puissance de calcul comparable à celle du cerveau humain, nous ne saurions toujours pas quels types de logiciels concevoir pour exploiter une telle capacité.

Mais si l’intelligence artificielle venait à franchir réellement le seuil de l’auto-apprentissage et donc d’une certaine “créativité” (et tout porte à croire que ça va être le cas), il se pourrait alors que la machine prenne le relais et développe une forme d’intelligence qui lui serait propre. Resterait alors à savoir s’il ne s’agit que d’une imitation sophistiquée de nos processus mentaux ou d’une autonomie véritable. Dans les deux cas, une telle IA pourrait commencer à produire de la connaissance et de la culture à un rythme exponentiel, dépassant rapidement, en volume, la production humaine, jusqu’à générer des récurrences, des automatismes ou des redondances que l’on pourrait comparer à une forme de plagiat algorithmique.

Elle pourrait également devenir progressivement impénétrable à l’esprit humain, et donc potentiellement incontrôlable. De telles perspectives, si elles relèvent encore de la prospective, posent déjà des questions fondamentales sur les limites de la maîtrise humaine dans la conception et la supervision des artefacts techniques qu’il conçoit pour prolonger ses fonctions cognitives.

La technicité a envahi nos vies et structuré nos manières d’agir, de penser, d’échanger, sans nous laisser le temps de la penser / pensée. Si les sciences sociales ont souvent été en posture critique face aux technologies, elles doivent désormais composer avec un rythme d’évolution qui réduit drastiquement le délai entre l’apparition d’une technologie et son adoption massive, délai qui constituait jusqu’ici une condition nécessaire à leur exercice analytique. Identifier les objets, en circonscrire les effets, trouver les questions des réponses à apporter : tout cela exige le temps long de la réflexion et de l’analyse.

Cette asynchronie a des conséquences politiques : les discours les plus visibles sont souvent soit dithyrambiques, soit apocalyptiques. Entre ceux qui promettent un avenir radieux et ceux qui alertent sur une catastrophe imminente, la complexité réelle du présent se perd. Il est donc essentiel de développer des espaces intermédiaires d’analyse, de délibération et de formation. Cela suppose une attention soutenue à la médiation et à l’éducation, non comme simples outils de vulgarisation, mais comme moyens de réappropriation critique des transformations en cours.

Sans même parler de créativité comparable à celle de l’être humain ou d’une AIG en tant que telle, les technologies liées à l’intelligence artificielle se sont déjà immiscées dans notre quotidien. Les assistants personnels se multiplient, filtrant ce que nous sommes censés aimer voir, écouter, lire, ou même qui nous devrions rencontrer. Nos interactions sociales sont modulées, nos choix culturels orientés, nos comportements anticipés. L’état de santé de nos corps est analysé en continu, et les premiers contrats d’assurance conditionnés à cette surveillance sont déjà en place.

La réalité augmentée s’insinue à la périphérie de notre perception, à travers objets connectés et interfaces immersives. Dans certains cas, des systèmes algorithmiques participent même aux prises de décision stratégiques au sein d’organisations. Ces dispositifs s’imposent progressivement, sans qu’on en ait pleinement identifié les logiques d’action ni les conséquences structurelles. Ce qui est en jeu n’est pas tant une délégation visible qu’une accoutumance diffuse à une ingérence opaque.

Que ça soit pour des questions éthiques, sécuritaires ou pour les répercussions concrètes qu’elle aura dans nos vies de tous les jours, tout nous laisse croire que l’humanité « augmentée » par l’intelligence artificielle sera un enjeu majeur de ces 10 prochaines années.

Avec le Mundaneum et d’autres partenaires, Transcultures a lancé en 2014 la Big Data Week Wallonia[v]. Le sujet nous intéresse donc particulièrement, mais il est difficile de le survoler ici tant il est vaste. Nous pensons que si la révolution tant annoncée du Big Data est bel et bien proche, elle sera d’abord aux mains des grandes entreprises, tout simplement parce qu’elles seront les seules capables d’accéder à ces masses de données et de les traiter. Prévoir le futur : tel est le Saint Graal du Big Data. Si vous connaissez toutes les données d’un problème posé, et qu’il vous est possible de les traiter une à une, et toutes ensemble, alors vous en connaissez potentiellement toutes les solutions possibles. Et c’est là que l’on rejoint une forme d’intelligence artificielle et d’humanité augmentée.

Il est donc urgent de proposer des cadres clairs et des régulations robustes autour de la collecte, du traitement et de l’usage des données, non pas seulement pour des considérations éthiques, mais également pour des questions de souveraineté : les données vont devenir l’élément indispensable au développement de l’intelligence artificielle, constituant à la fois son carburant, son cadre de modélisation et la matière première de ses futurs usages

Nous vous conseillons la lecture du livre de Gilles Babinet : “Big Data, penser l’homme et le monde autrement” aux éditions “Le Passeur”, paru cette année[vi].