Singularité inversée : quand la stupidité artificielle esclavagise l’homme automate

Le nombre d’articles, d’émissions, d’essais, de débats, de conférences sur l’intelligence artificielle est en croissance exponentielle. Tout le monde veut donner son avis sur les IA ou savoir si elles deviendront « conscientes d’elles-mêmes », auront une
Abonnez-vous ou connectez-vous pour lire le reste de cet article
Twitter Facebook Google Plus email

Auteur: drapher

Journaliste (atypique mais encarté) web et radio — @_Reflets_ et d’autres médias. Ni « désengagé » ni objectif ou neutre, mais attaché à décrire et analyser la réalité, même la plus déplaisante. On the net since 1994. Gopher is power ;-)

6 thoughts on “Singularité inversée : quand la stupidité artificielle esclavagise l’homme automate”

  1. Ce qui semble sûr, c’est que l’ordinateur peut analyser, trier, faire sortir des tendances mais reste définitivement prisonnier des éléments avec lequel on le gave. Le cerveau humain est capable d’imaginer, c’est à dire établir un lien entre deux entités qui, à priori, n’ont rien de semblable. C’est le résultat de l’expérience, de l’histoire de l’individu, du hasard de son existence. Le seul hasard que peut explorer un ordi est limité aux résultats fini des data qu’il a ingurgité et des possibilités imaginatives de ses concepteurs. Mais un concepteur ne peut imaginer l’imprévu (par principe) pour son logiciel sinon à rencontrer un bug et vite envisager son apparition dans le cadre de son développement, pas au delà….
    et le cadre du développement, réducteur, devient le cadre de nos vies régulées, d’une incommenurable pauvreté.

    1. « (…)reste définitivement prisonnier des éléments avec lequel on le gave. » -> Justement, non, ce n’est plus le cas aujourd’hui. Pas plus qu’un cerveau humain reste prisonnier des éléments dont on le gave, les IA actuelles sont en capacité de changer, en fonction de leur « histoire », du hasard, des données qu’elles choisissent de traiter, et pas seulement de celles qu’on leur donne et ne sont plus dépendantes uniquement de leurs concepteurs. C’est là le sujet de cette conversation. l’IA faite de réseaux de neurones artificiels n’est pas un programme informatique classique et échappe à ses concepteurs, justement. Le fond de l’histoire n’est donc pas encore établi : quelle autonomie ces IA peuvent-elles acquérir au sein de leurs boites noires, jusqu’à quel point peuvent-elles créer des relations originales, des circuits logiques nouveaux, inattendus, originaux ?

      1. Il fut un temps (lointain, je le reconnais) où je programmais. Peut-être que j’ai trop vite séché sur place mais je n’arrive pas à comprendre où sort un programme de son cadre de saisie de données pour se « libérer » de ses règles et partir se déveloper dans l’inconnu, au delà des limites réfléchies par ses concepteurs. Pouvez-vous développer ou me fournir un lien qui démontre le fonctionnement de ces neurones artificiels ? je suis curieux d’apprendre… car à mes yeux, le concept de programmation ne possède cette fonction propre à la vie de se reproduire et de muter.

          1. Bon, je crois m’être fait une idée globale du fonctionnement de cette « classe » IA. Le texte le plus éclairant est celui référencé dans votre ancien article du 21 novembre 2011 par Yovan Menkevick:
            http://www.univ-orleans.fr/log/Doc-Rech/Textes-PDF/1997-1.pdf
            même si c’est un peu vieux. Mais la bourrique qui sommeille (que d’un oeil!) en moi m’a excité les neurones secrets sur les passages suivants, notement à la fin de l’article, cette mise en garde:
             » Cependant, ils présentent encore certaines limites : la construction du réseau, le retraitement des variables d’entrée et le réglage des paramètres d’apprentissage relèvent encore trop de l’intervention humaine. Par ailleurs ils n’ont encore qu’un pouvoir explicatif réduit. Mais tous ces problèmes font aujourd’hui l’objet de recherches dont on peut espérer qu’elles apportent des réponses satisfaisantes dans les années qui viennent. Mais, comme le signale Hoptroff (1993) , si l’outil est intéressant, comme toutes
            les méthodes de prévisions, les réseaux de neurones ne pourront jamais prévoir l’imprévisible  »
            Alors, sans doute que les traders/programmeurs ont perfectionné un modèle valable pour la finance, pour leur domaine de compétence, mais la forme que prend leur produit à force de réglages et de perfectionnement en fonction de limites des données d’entrée de leur cas particulier mais il ne faut pas imaginer être à l’aube d’un système universel propre à répondre comme le cerveau à l’inatendu, au hasard, au cygne noir. et si vous changez de domaine, tout le système d’apprentissage est à revoir depuit le début, comme quand un article de loi vient bousculer un programmeur sur son enfant-chéri-qui-tourne-si-bien depuis 5 ans.
            Sinon merci pour vos liens, j’ai passé une bonne soirée, je me sentirai moins con quand je vais m’endormir…

    2. Mais ce qu’il faut bien entendre, c’est que ce n’est pas parce que ces réseaux de neurones artificiels génèrent des résultats surprenants, très performants, qu’ils sont pour autant l’équivalent de l’intelligence humain. Simplement, ils peuvent traiter de façon autonome des problèmes, agir, aussi bien, en apparence que peut le faire un humain. Mieux même la plupart du temps. Bien mieux.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *