• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile


En réponse à :


Francis, agnotologue JL 16 février 2018 14:03

@Hervé Hum
 
’’Prenez l’exemple d’un militaire ou policier, ceux ci peuvent utiliser la fonction réflexion partout, sauf dans leur fonction répressive, là, il leur est strictement interdit de réfléchir, mais uniquement d’obéir aux ordres’’
 
Mauvaise pioche : les exécutants, les subalternes, commettent des erreurs ; dans votre exemple, on appelle ça des bavures
 
La réflexion ici n’est pas une énième dissertation sur la dangerosité des IA, mais sur le point soulevé par la phrase de Foucault qui énonce autrement cette formule archi connue : « l’erreur est humaine ». L’erreur est aussi, animale.
 
Ne confondant pas bug et erreur, la question ici posée est : les IA sont-elles potentiellement capables de commettre des erreurs ?
 
Et je dis que, quelle que soit la réponse à cette question, la poser démontre que les IA ne seront jamais toute-puissantes. En effet, si c’est oui, alors elles ne sont pas égales à dieu ; si c’est non, alors elles ne sont même pas égales aux humains.
 
C’est en substance ce que j’écrivais sous l’article de Caleb Irri : Pourquoi il ne faut pas craindre les robots :
 
’L’anthropomorphisme étant l’attribution de caractéristiques du comportement ou de la morphologie humaine à d’autres entités comme des dieux, des animaux, des objets, des phénomènes, voire des idées, je ne sais pas comment il faudrait appeler l’« anthropomorphisme divin », mais je pense que la croyance en un robot doté d’une telle omniscience n’est ni plus ni moins que de la superstition.’’
 
 « La pente naturelle de la machine consiste à rendre impossible toute vie humaine authentique » (Orwell)


Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON


Palmarès