• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile


En réponse à :


PeakCell 25 novembre 2017 17:17

@Nicole Cheverney

Tu aurais raison s’il ne s’agissait pas d’une IA. Aujourd’hui, une IA, par principe, ne ressort pas bêtement son programme : Elle apprend. En gros, le robot s’améliore à chaque conversation, et s’il te sort qu’il veut « détruire l’humanité » ça n’a absolument aucun lien avec le programme mis en place par ses concepteurs, mais avec les données utilisées par ce programme, qui elles viennent de l’interprétation qu’à fait le robot de toutes ses conversations avec les personnes qu’il a rencontrées (Et cette interprétation est liée au programme, oui, mais surtout à ce qu’on lui dit et ce qu’elle a déjà appris).

Bref, je pense que tu vas très vite en besogne : Ce robot a été créé par une entreprise de robotique. Leur seul but c’est le progrès, et la reconnaissance. Ce robot est un assemblage ingénieux des dernières technologies, mais il est surtout là pour faire le buzz, il n’est en aucune façon terminé. Certaines phrases sont pré-programmées afin de créer des conversations quasi-humaines qui, avec un petit rappel de nos peurs des robots, sont calculées pour faire le buzz ; ce n’est pas en lien avec les intentions des développeurs mais avec leur stratégie marketing.

En gros, ce robot possède deux modes de conversation : Soit la conversation n’est pas scriptée et n’est donc pas faite pour faire des millions de vues et des dizaines d’articles, et dans ce cas toutes les paroles du robot dépendront de ses connaissances et non de ses concepteurs, soit les réponses sont pré-programmées, et dans ce cas ce n’est qu’une mise en scène n’indiquant pas les intentions du robot ni de ses développeurs, mais juste destinée à faire parler de lui.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON


Palmarès