Des nouvelles de nos amis tas de ferrailles : Terminator on the way

La question qui se pose en visionnant ces vidéos est surtout la suivante : quand donc ces créatures de métal, autonomes et dotées (pour certaines) de capacités physiques supérieures à l’homme vont-elles débouler dans notre
Abonnez-vous ou connectez-vous pour lire le reste de cet article
Twitter Facebook Google Plus email

Auteur: drapher

Journaliste (atypique mais encarté) web et radio — @_Reflets_ et d'autres médias. Ni "désengagé" ni objectif ou neutre, mais attaché à décrire et analyser la réalité, même la plus déplaisante. On the net since 1994. Gopher is power ;-)

14 thoughts on “Des nouvelles de nos amis tas de ferrailles : Terminator on the way”

  1. Ça fait peur, ces vidéos. Les robots imitent très bien les mouvements animaux et humains, ça me met mal à l’aise.
    Comme vous le soulignez, on voit très bien ces robots en forces de l’ordre. Déjà qu’un CRS moyen n’a que peu de conscience humaine, alors des robots…

    1. Pour préciser, ils n’imitent pas les mouvements naturels, ils recouvrent les mouvements optimaux (ils vont juste un peu plus vite que nous avec notre bonne vieille évolution). Mais cela ne change rien sur la question de l’usage d’une telle technologie.

      Il n’en reste que la partie « IA » reste encore assez loin de pouvoir interagir de façons autonome (ou même semi-autonome) dans un environnement ouvert & complexe. Se poser des maintenant le problème de la régulation de l’usage ne parait pas pour autant prématuré, par contre je doute sincèrement de l’efficacité… Et pourquoi ne pas proposer des cours d’éthique aux futurs ingénieurs ? (pas certain que ce soit mieux en fait…)

      1. Houla ! Si vous n’avez jamais eu l’occasion de lire un « manuel d’éthique » pour ingénieur (sisi, ça existe !), je vous conseille de le faire, l’histoire de vous faire peur. Celui qui trone dans les cours de PMP (project management professional) par exemple.
        Partant de là, je crois que nous avons encore du chemin devant nous.

  2. Ah le beau rapport rempli de bonnes intentions façons conventions de Genève, ça fait toujours très joli en période de paix.

    Par contre en cas de conflit armé tout ce qui compte c’est de gagner peu importe les moyens, le reste on s’en fout, on écrira l’histoire après. Là-dedans, les futurs terminators ont tout à fait leur place.

    1. Je suis loin d etre sur que les robots soient vraiment le nec plus ultra en ce qui concerne l armement. Jusqu a present ils sont quand meme nettement moins performant que les humains, c est pas pour rien que les drones sont encore pilotés par des humains ou qu on a pas encore d avions de chasse ou de tank drones.
      Il faudra un sacre saut technologique pour qu ils fasse aussi bien que les humains et on oublie encore tous les problemes de logistique (contrairement a un combattant qui peu se satisfaire d un peu d eau et de nourriture, un drone va avoir besoin d essence, d electricité, de pieces de rechange …)

      Si on regarde les conflits recents, on voit une armee high tech (USA) mise en echec par des gens low tech (taliban, EI).
      Pourquoi ? car l armee US rechigne a accepter des pertes humaines dans ses rangs, ses opposants eux n ont pas de scrupules (voire l encouragent : si tu es un martyr tu auras 1000 vierges au paradis)

      1. « c est pas pour rien que les drones sont encore pilotés par des humains ou qu on a pas encore d avions de chasse ou de tank drones. »
        oui mais il n’empêche qu’une partie des assassinat par drone, se font sur la base d’algorithme.
        les drones survolent pendant des mois une zone, surveille les fait et geste de tout les individu (dont personne ne connait l’identité), un programme établi des patterns de comportement, il établie en pourcentage le risque qu’un homme soit ou non un « combattant terroriste ».
        et c’est sur la base de ça que des décisions sont prisent de tuer ou non. alors si l’homme prend toujours la décision, la responsabilité elle, est de plus en plus diluée. Et dilué au maximum les responsabilité est une but poursuivi. Rien qu’avec ça, il est déjà extrêmement difficile, voir impossible de désigner un ou des responsables, le degré de responsabilité est complexifier. Et la question de L’IA est déjà en travail, les américains ont déjà refondu leurs éthique militaire pour les drones, c’est déjà de la folie, je ne vois pas pourquoi on serait optimiste quand à la suite des choses..

        1. « Si on regarde les conflits recents, on voit une armee high tech (USA) mise en echec par des gens low tech (taliban, EI). »

          Il faut voir comment ils pensent cela (on peux lire « la théorie du drone » de grégoire chamailloux) pour comprendre que cet apparente mise en échec s’est transformé en
          stratégie militaire. D’une part ils ne veulent plus risquer de vie, donc plus envahir physiquement des pays. D’autre part leurs stratégie consiste à tuer par drone.et a la contradiction: « chaque fois que vous assassinez un combattant par drone, cela éveille d’autres vocations » ils répondent: « c’est pas grave, notre but n’est plus de gagner la guerre, de tuer l’hydre, mais de coupé les tête à chaque fois qu’elles repoussent, et où qu’elles repoussent dans le monde ».
          on le voit déjà, ils opèrent dans des pays contres lesquels aucune guerre n’est déclarée.

          1. je connais l argument (a part que c etait l analogie avec du gazon et une tondeuse).
            Par contre il va falloir se demander comment vous pouvez esperer gagner avec une telle strategie ? C est du meme niveau qu au vietnam ou des strateges avait fait le calcul qu ils devaient gagner car le ratio perte US/perte Vietcong etait tres favorable …
            Je veux bien que vous meniez une guerre d attrition mais il risque d avoir un moment ou votre gouvernement/votre opinion publique/votre economie ne pourra plus supporter le gaspillage de ressource. Les USA ont arrete au Vietnam, l URSS en Afghanistan, la France en Algerie car a un moment ca n en vaut plus la peine. Comme disait De Gaulle, « bye bye vous nous coutez trop cher »

            PS: dans le cas des drones US, ils n ont quasiment pas d opposants (meme si les iraniens ont reussi a en capturer un), En cas de conflit avec la chine ou la russie, les drones US actuels risquent d etre balaye du ciel assez rapidement s ils ne sont pas proteges par des avions avec pilotes

  3. Ça m’a filé la frousse quand j’ai vu le gros veau robotisé sortir des fourrés. Immédiatement je me suis demandé comment faire pour lui échapper.
    Vivement qu’on aie des infos pour savoir les tromper, les dérégler ou les détourner.
    Les robots construits par Google sont terrifiants, à l’image du monde qu’il nous prépare. Oh bien sur au début ça sera seulement pour sauver les bébés sous les décombres, mais on commence à connaître leur chanson.

  4. Les 3 lois de la robotique d’Assimov ont toujours eu une faille evidente: la nature humaine.
    Meme s’il etait possible de les inclure dans toute intelligence artificielle, on aura toujours un petit malin qui voudra couper les couts ou tout simplement jouer les perturbateurs en les ommettant volontairement.
    De plus, vu comme les protocoles et algorithmes les mieux definis voient parfois des implementations lamentables, il ne serait pas etonnant qu’il en soit de meme avec des concepts aussi complexes que ces lois.

    1. C’est à cause du contexte politique des romans.

      L’entreprise qui a le monopole de leur fabrication et la responsabilité de leur maintenance ne tolèrent aucun écart dans le comportement des robots car elle risque en permanence des sanctions de la part d’états influencés par une opinion publique puissante.

      Le contraire de notre monde quoi.

      1. Et puis il y a nombre de ses nouvelles qui illustrent les conséquences d’un bidouillage d’une des lois : atténuer la loi, inverser l’ordre des lois, omettre une partie de la loi…
        Systématiquement les conséquences font froid dans le dos. Asimov met en garde contre tout cela, mais les concepteurs, développeurs etc prendront-ils en compte ses avertissements ? Il y a fort peu à parier, à mes yeux.

        Ici le robot « ivre » par la contradiction entre les ordres des humains et son obligation de se protéger qui a été renforcée parce qu’il coûte très cher :
        https://fr.wikipedia.org/wiki/Cercle_vicieux_(nouvelle)#R.C3.A9sum.C3.A9
        Première Loi de la Robotique affaiblie pour ne pas gêner le travail humain, au risque d’en voir mourir finalement :
        https://fr.wikipedia.org/wiki/Le_Petit_Robot_perdu#R.C3.A9sum.C3.A9
        Et puis les robots parfaitement humanoïdes qui sont des bombes…
        https://fr.wikipedia.org/wiki/Assemblons-nous#R.C3.A9sum.C3.A9
        Bref. Je crois que je vais m’acheter toute la collection, il y a un certain nombre de ces nouvelles que je n’ai plus. Ca pourra s’avérer utile un jour, qui sait ?

  5. Malgré ce que voudraient nous faire croire les entreprises, je pense qu’on est encore très très loin d’une IA digne de ce nom.
    AlphaGo par exemple est une forme de réseau de neurones… On est effectivement aujourd’hui capable de prendre certaines décisions à partir de milliers/millions de variables… Mais je ne trouve pas ça si inquiétant pour le moment. Un humain est incapable de traiter le même nombre de paramètre, mais à la fois bien supérieur dans sa manière de manipuler des abstractions ou de se diriger naturellement vers une possibilité.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *