La singularité ? est ce possible ?
Comme promis, je continue sur la notion de singularité, ce coup ci pour vous faire part de mon scepticisme. Je vais procéder avec une belle liste à points, ce sera plus facile que d’essayer de structurer ma pensée.
- Des machines avec la même puissance de calcul que le cerveau humain apparaitront très rapidement maintenant, puis la puissance ne fera que croître sans jamais connaitre de limites autre que celle liées à la taille de l’univers.
Vous n’y croyez pas ? moi non plus, déja on ne sait absolument pas ce que veut dire « puissance du cerveau humain », on trouve des estimations à la *** un peu partout basées sur l’estimation du nombre de neurones et de connexions entre neurones. Mais il semble pourtant que certains processus cognitifs soient basés sur plus que la simple connexion entre 2 neurones, mais plutôt sur des chemins plus long (des chaînes de neurones).
Ensuite, il y a des limites physiques à la croissance des machines de calcul : on ne peut pas graver plus finement que la taille d’un atome (au pire, actuellement on est autour de 200 atomes), et sur ces petites tailles les fluctuations quantiques commenceront à avoir une effet réel sur le calcul, ce qui n’est pas le cas actuellement. Par ailleurs si on procède en faisant des machines parallèles, il faudra alors améliorer les communications (le réseau) ce qui est non trivial, d’autant qu’il y a des barrières d’impossibilité théoriques en algorithmique parallèle (une machine puissante sans algo ne calculera pas grand chose). Enfin se pose le troisième problème de l’energie nécessaire pour faire tourner la machine, une machine exaflopique aurait besoin de $2 \times 10^9$ Watts (2 à 3 centrales nucléaires tournant à plein régime !). Pour info un cerveau humain consomme 20 W !
Par ailleurs, la loi de Moore a une loi corollaire : celle de Rock, qui stipule que le coût d’une fonderie de processeurs double tous les 4 ans, or l’argent n’est pas en quantité infinie sur Terre !
La courbe ci dessus est celle utilisé par les singularistes pour nous faire croire qu’on aura très bientôt des simulateurs de cerveaux humain, alors qu’on ne sait pas encore comment fonctionne le cerveau ! J’avais trouvé une analogie amusante sur un blog US, l’idée est de dire que si l’on multiplie par 1000 le nombre d’habitants d’un pays du tiers monde (un de ceux sans espoir, ravagé par la guerre civile, la famine et les maladies) on ne le transforme pas en version améliorée de la Californie. Le nombre et la puissance ne fait pas tout.
- La première Intelligence Artificielle sera bientôt active sur cette machine de la puissance d’un cerveau voire plus.
Là encore je n’y crois pas, en tout cas pas pour tout de suite. En fait nous construisons des machines dites RAM (ou PRAM pour les versions parallèles), ce modèle théorique de calcul est une version un peu amélioré du modèle de la machine de Turing (même puissance théorique, mais plus simple à manipuler). Dans ce modèle, l’algorithmique et la complexité sont (un peu) balisées. On a défini des classes (P, NP et ce genre de choses) et de très nombreux résultats d’impossibilité, de non décidabilité, etc. Les noms de Godel, Church, Turing et consors ne vous disent peut être rien, mais les travaux de ces logiciens laissent à croire que certains problèmes sont hors de portée des formalismes actuels.
Plus prosaïquement, des tâches très simples sont des échecs épiques pour nos machines, et ce n’est pas en leur donnant de la puissance supplémentaire que cela fonctionnera mieux. Il y a d’ailleurs une belle confusion chez certains sur le fait que l’IA est équivalente à l’interface d’interaction parfaite avec un humain (le test de Turing serait alors une vraie preuve d’intelligence). Pourtant même chez les humains la maitrise de la communication n’est pas une preuve d’intelligence, et réciproquement (n’avez vous jamais entendu parler des autistes ?).
- Le rythme de découverte scientifique est tel qu’en fait ce qui a été dit plus haut arrivera car les barrières vont être levées à un moment ou un autre.
Bien sur, de nouvelles découvertes peuvent toujours infirmer certains de mes dires, mais je doute que les preuves de résultats d’impossibilité deviennent fausses soudainement, et je doute que les lois de la thermodynamique changent d’ici peu… Par ailleurs, malgré tout le discours positif de Ray Kurzweil, le rythme des découvertes est en train de s’infléchir (Tainter, 1988), avec un pic qui se situe autour de 1900 !
- Une fois la première IA crée, elle en créera une autre plus intelligente, qui en créera une autre plus intelligente, jusqu’à la singularité ! Un degré d’intelligence tel que les humains ne sont plus capables de l’appréhender, pas plus que ses conséquences.
Là on passe dans la science-fiction, pourquoi le but d’une IA serait de faire des IA de plus en plus intelligentes ? qu’est ce que cela veut d’ailleurs dire ? est ce que ces IA seront conscientes d’elle mêmes ? Cela fait beaucoup de questions auxquelles les singularistes répondent ce qui les arrangent bien pour dire qu’on va droit à la singularité, notamment en prétant à une intelligence supérieure le même but qu’eux !