@Hervé Hum
’’Prenez l’exemple d’un militaire ou policier, ceux ci peuvent utiliser la
fonction réflexion partout, sauf dans leur fonction répressive, là, il
leur est strictement interdit de réfléchir, mais uniquement d’obéir aux
ordres’’
Mauvaise pioche : les exécutants, les subalternes, commettent des erreurs ; dans votre exemple, on appelle ça des bavures
La réflexion ici n’est pas une énième dissertation sur la dangerosité des IA, mais sur le point soulevé par la phrase de Foucault qui énonce autrement cette formule archi connue : « l’erreur est humaine ». L’erreur est aussi, animale.
Ne confondant pas bug et erreur, la question ici posée est : les IA sont-elles potentiellement capables de commettre des erreurs ?
Et je dis que, quelle que soit la réponse à cette question, la poser démontre que les IA ne seront jamais toute-puissantes. En effet, si c’est oui, alors elles ne sont pas égales à dieu ; si c’est non, alors elles ne sont même pas égales aux humains.
C’est en substance ce que j’écrivais sous l’article de Caleb Irri : Pourquoi il ne faut pas craindre les robots :
’’L’anthropomorphisme étant l’attribution de caractéristiques du
comportement ou de la morphologie humaine à d’autres entités comme des
dieux, des animaux, des objets, des phénomènes, voire des idées, je ne
sais pas comment il faudrait appeler l’« anthropomorphisme divin », mais
je pense que la croyance en un robot doté d’une telle omniscience n’est
ni plus ni moins que de la superstition.’’
« La pente naturelle de la machine consiste à rendre impossible toute vie humaine authentique » (Orwell)