Par akademiotoelektronik, 05/03/2023
« On peut imaginer des machines conçues pour ouvrir les problèmes plutôt que les résoudre »
#IA#Histoire
À l’occasion de son récent passage à Paris, nous avons échangé avec l’historien David Bates, pour qui la manière dont nous concevons nos machines nous empêche structurellement de penser le futur.
Mathilde Simon- 12 octobre 2021#IA #HistoireC’est dans un amphithéâtre frigorifique de l’École Polytechnique, à Paris, à l’occasion d’un colloque sur les limites de l’intelligence artificielle, que nous avons rencontré David Bates, historien de la pensée enseignant à l’université de Berkeley, en Californie. Dans son livre à paraître, An Artificial History of Natural Intelligence, il s’intéresse en particulier à la relation qu’entretient l’humain avec la technologie à travers l’Histoire, pour mieux penser la place accordée au numérique dans notre société. Pour ce proche du philosophe Bernard Stiegler, la manière dont nous concevons nos machines nous empêche structurellement de penser le futur.
Usbek & Rica : Vos travaux portent sur la possibilité de créer de nouvelles normes grâce aux machines. Dans un premier temps, pouvez-vous revenir en quelques mots sur la façon dont les normes régissent la vie humaine ?
David BatesIl existe trois domaines normatifs à travers lesquels on peut regarder les humains. Le premier, c’est le domaine biologique, qui fait de nous des animaux avec des aptitudes cérébrales et physiques limitées. Ce qui nous différencie des autres animaux, c’est que nous avons conscience que nous héritons de certaines de nos habitudes et que nous les transmettons : nous vivons au sein de systèmes culturels et historiques. Et puis, il y a le domaine technologique. Il semble souvent moins important que les deux précédents, mais l’humain est aussi défini par sa capacité à utiliser des outils, et surtout à penser et à vivre à travers les systèmes techniques qu’il crée. Donc il n’y a pas de normes qui définissent l’humain : en fait, celui-ci est constitué par trois sphères qui, chacune, a ses propres normes. On entend souvent qu’il faudrait laisser tomber nos téléphones pour être plus sociables. Mais il n’y a pas de retour possible à un humain originel sans machine : la technologie fait partie de l’humain, sans pour autant le définir totalement.
Pour parvenir à penser la norme, vous dites qu’il nous faut déjà penser la crise. Dans quelle mesure le futur émerge-t-il de ces moments de tension ?
David BatesC’est le cas dans les domaines biologique et socioculturel : l’évolution s’appuie sur le changement, mais surtout elle exige la rupture. Il n’existerait pas de nouvelles espèces vivantes sans rupture. Et si on regarde la dynamique de l’Histoire, on voit depuis le Paléolithique des systèmes normatifs qui fonctionnent très bien, jusqu’à ce qu’ils commencent à changer lentement. Et si les choses ne parviennent pas à s’adapter à ce rythme, alors advient un changement radical. Par exemple, à l’époque de la Révolution française, toutes les normes associées à la monarchie étaient établies par les structures sociales, politiques et économiques. Quand ça s’est effondré en interne parce que le système n’arrivait pas à s’adapter à ce qui était considéré comme moderne à l’époque, les normes se sont dissoutes et l’État avec, et cela en l’espace d’une nuit !
David BatesEn France, vous convoquez la notion d’« état d’urgence » dans les moments de crise. En anglais, « urgence » se dit emergency, qui vient du mot « émergence » : les temps de menaces font émerger des choses, qui peuvent mener à une nouvelle manière de vivre. Et ce qui permet à nos sphères culturelles, politiques et biologiques de survivre à travers le temps, c’est la capacité à prendre des décisions pour se réorganiser complètement afin de survivre. Mais cela doit passer par la décision : il y a toujours un moment, lors d’une crise, où il faut décider s’il faut sauver quelque chose qui est mis à mal ou s’il vaut mieux l’abandonner. Mais quand est-ce qu’on décide que des normes ne sont plus capables de maintenir la sécurité et la normalité ? Et surtout, comment créer de nouvelles normes lorsqu’on a perdu les anciennes ?
Le vieux débat sur la capacité ou non des intelligences artificielles à faire preuve de créativité est régulièrement relancé. Pensez-vous qu’un jour, des IA seront capables de rompre avec les normes que nous leur avons fixées dans leur programme informatique, et parviendront à créer elles-mêmes de nouvelles normes ?
David BatesAujourd’hui, les ordinateurs peuvent comprendre et s’adapter de manière très sophistiquée. Mais il arrive quand même un moment où tous les outils dont une machine dispose sont incapables de gérer une nouvelle situation. Dans le monde de l’IA, on part du principe que le machine learning sera toujours capable de s’adapter aux nouvelles données qui lui seront apportées, qu’il adaptera simplement sa capacité à prédire le futur. Cela équivaut à dire qu’on ne croit pas à la notion de crise ! Pourtant, les crises sont essentielles dans tous les domaines, alors ce serait intéressant de se pencher sur la question…
Si on transpose cette idée de la crise comme opportunité de changement au domaine technologique, cela semble signifier que plus on tente de rendre nos machines infaillibles, moins elles ont de chance de devenir réellement intelligentes…
David BatesExactement. Plus les systèmes semblent « bien portants », plus on s’éloigne de leur capacité à prendre avantage de l’erreur et à l’utiliser en interne comme un chemin vers quelque chose de radicalement nouveau. Mais est-ce vraiment utile de penser à des outils numériques ayant un instinct de survie ? Le problème, c’est que le modèle selon lequel le cerveau est un ordinateur et l’ordinateur devrait imiter le cerveau est si puissant que nous croyons toujours que le but d’une IA est d’être intelligente comme un humain. Du coup, nous sommes bloqués sur l’idée que « si les ordinateurs deviennent trop intelligents, nous devons trouver un moyen de contrôler la machine». Mais ça n’a pas de sens de chercher à avoir une machine qui imite l’humain puisqu’il n’y a pas d’humain en soi : l’humain est défini par sa relation aux trois domaines indépendants que je décrivais tout à l’heure. Comment est-ce qu’une machine pourrait l’imiter alors que lui-même a besoin de machines pour être ce qu’il est ?
Donc plutôt qu'être bénéfique aux machines, la survenue d’une crise au sein des machines pourrait s’avérer utile aux humains ?
David BatesSi nous essayons d’améliorer constamment nos machines, elles imposent aux humains des normes sur lesquelles nous n’avons pas de contrôle, de la même manière que nous ne contrôlons pas vraiment la manière dont les normes culturelles, politiques et sociales modèlent nos comportements de manière très fine.
Beaucoup de chercheurs pensent qu’il suffirait d’un institut d’éthique en intelligence artificielle pour contraindre les GAFAM et s’assurer que nos enfants n’aient pas d’iPhone trop tôt. Mais ce qu’ils ne prennent pas en compte, c’est que nos cerveaux sont en train d’être transformés par les technologies, comme ça a toujours été le cas : depuis les débuts de l’écriture, nous transmettons nos idées via des livres qui sont des mémoires artificielles. Mais là il ne s’agit plus seulement de lire un livre : nos esprits se fondent au passage dans les infrastructures numériques sans pouvoir s’en échapper. Donc quand on se demande quelle décision prendre, nos esprits sont en quelque sorte « incapacités », précisément parce que les technologies numériques reposent sur la normativité, qui est supposément « le meilleur pour nous ». Nos cerveaux sont incorporés dans un système qui ne permet pas l’échec, la rupture, et donc l’ouverture à un autre système.
Nous aurions besoin de technologies numériques qui encouragent l’interruption, la nouveauté, la singularité, et nous poussent à reprendre en main notre pouvoir de décision. Nos infrastructures sont tellement dominées par les logiques capitalistes de profit et d’homogénéité que ces notions semblent aller à l’encontre de l’essence du numérique, mais il me semble possible d’imaginer des machines conçues pour ouvrir les problèmes plutôt que de les résoudre en permanence.En attendant, nous avons l’automatisation, moins de transparence, et une volonté de contrôler le futur, ce qui équivaut à détruire le futur en n’en faisant qu’une extension de ce que nous sommes déjà.
Les machines peuvent-elles intégrer la notion de futur à leur système ?
David BatesLa plupart des modèles d’IA sont basés sur la prédiction, or la prédiction ce n’est pas l’anticipation ou l’imagination dont les humains se servent pour penser le futur. Pour nous, le futur doit être ouvert, capable de se traduire par des choses imprévisibles. Il ne faut pas penser au futur comme quelque chose de bien ou de mal, mais comme quelque chose à imaginer collectivement. Les futurs possibles doivent être à l’origine de décisions, et il nous faut créer des outils pour aider à cela. Or aujourd’hui, ce qui est reproché aux technologies numériques, qu’elles tendent souvent à réintroduire ce qui est « normal » en temps de crise : on peut commander sur Amazon, se faire livrer de la nourriture… Jusqu’à se retrouver à tous vivre de la même manière. Ces technologies numériques nous empêchent de rester ouverts à d’autres futurs.
Mathilde Simon- 12 octobre 2021Share on FacebookShare on Twitter
Articles Liés