Re: robots anthropomorphes

Posté par everwind le 11/11/2008 13:40:58
ben écoute je pense déjà que ça va commencer à se commercialiser au niiveau grand public, version geek avec paramétrage (programmation du robot possible, version plus ou moins open source), comme on le voit deja avec les robots plus petits comme l'aibo et plus recemment pleo (le ptit dino qu'il est mignon ).

Un certain nombre de technologies vont accompagner le developpement des robots : synthèse et reconnaissance vocale, reconnaissance visuelle (portraits, objets), reconnaissance 3D (d'une pièce, pour circuler, eviter les obstacles, se recharger tout seul ...).

On voit aussi le developpement de l'apprentissage : un robot qui apprend au fur et à mesure (qui ne sait pas marcher au départ et qui apprend en essayant).

ça c'est le cadre technologique de developpement, avec des robots peu ressemblants à l'homme, plus ou moins polyvalents et resolument gadget.

Quand la technologie commencera à être bien au point, il faudra mettre des limitations, si on ne veut pas voir des drones tueurs personnels en circulation . Il faut donc intégrer les 3 lois (d'autant que l'apprentissage du robot suggère une autonomie et une évolution, il ne faudrait donc pas qu'il apprenne a faire tout tout seul et à se passer des humains, se serait embetant), et donc assurer une couche supplementaire dans le robot, qui ne serait pas évolutive et qui controlerait toute son evolution(la notion de faire du mal est abstraite quoi qu'on en pense, elle doit donc d'adapter à l'évolution du robot pour l'empecher de faire des choses qu'on ne rpevoit aps mais qui pourraient etre dommageable - comme par exemple un robot qui d'un coup voudrait apprendre ce que ça fait de pousser une table quand l'homme est à cote).

Face à des robots de plus en plus polyvalents, multitaches et pouvant apprendre, il faut donc leur inculquer la notion de mal, en leur faisant comprendre ce qu'il ne faut pas faire, et l'incruster. C'est déjà une tache pas simple, et comme on sait la puissance de calcul est limité, donc la chaine de raisonnement aussi, on ne peut pas calculer plus d'un certain nombre de coup aux echec, et bien un robot ne peut pas calculer toutes les possibilités de ses actes, comment alors garantir qu'il ne fasse pas de mal ? c'est tout un cheminement de pensée à établir, et toute erreur peut etre très dangereuse, car un robot qui echappe à ses concepteurs devient très très inquietant.

Dans ce cas faut-il les developper ? je dirais plutot : peut on ne pas les developper ? la création d'un être à son image a toujours été un rêve humain, qui deviendrait ainsi une sorte de dieu ... tellement de romans, d'essais, de nouvelles sont sorties sur ce thème, qu'on ne peut pas imaginer que l'homme oublierait cet objectif. Le contraindre à ne pas le faire ? Quand on sait que la technologie permet de faire des choses merveilleuses et peut etre de réaliser ce rêve, ça risque d'être difficile, d'autant que al concurrence mondiale en recherche (et notamment les chercheurs chinois) encouragent chaque nations à developper ça en premier, surtout qu'il y a un marché énorme à la clé pour celui qui imposera son modèle.

Car je le rappelle, les premeirs robots seront programmables (à terme l'apprentissage devrait je pense prendre le pas). Dans ce cadre, on ne va pas garder 30 standards, un pour chaque boite de robotique .... Il va y en avoir Un, deux, ou trois, qui vont se maintenir et s'imposer, avec toute une communauté. Le côté nouveau et high tech permetdes prix élevé, et le fait que se soit un rêve garanti les ventes, il y a donc un énorme bénéfice potentiel.

Donc on a vu l'aspect technologique et ses difficultés à contrôler, et aussi le fait que le developpement de ces robots est inévitable. Il faut donc le contrôler ! Par exemple, on ne pourrait tolérer des spyware dans ces robots ! Et oui, pensons aux virus ... Des virus qui toucheraient des robots ayant la capacité d'agir ... quoi de plus effrayant ? Il faut donc des système betonné, et surs (et ne transmettant pas les données n'importe comment au passage, on aurait pas envie qu'une boite fasse pire que google et recupère "anonymement" les données de notre apartement pour nous proposer une maison mieux placée non ?).
l'Etat doit intervenir et légiférer. Il faut garantir la séciurité de ces robots. On pourrait mettre en place un organisme de test indépendant (sous contrôle de l'Etat, payé indirectement par les boites de robotique, c'est à dire que l'Etat taxe ces entreprises et paye ensuite l'organisme, ça évite le financement direct qui poserait problème d'indépendance et le cout que serait pour l'etat le non financement apr les boites de robotique), qui testerait la fiabilité des robots à intervalle régulier. On pourrait mettre dans les robots une puce qui les couperait immédiatement sous ordre de cet organisme dès qu'une faille est detectée par exemple. La tolérance 0 doit s'appliquer dans ce domaine dans tous les cas.

Dans Asimov on peut distinguer des robots qui font progresser l'humanité (et qui créent une loi 0 devant protéger l'humanité avant les humains en particularité), qui sont plus moraux que les humains, plus impartials et plus à même et résoudre les problèmes .... Je crois que les robots peuvent effectivement être un apport philosophique à partir du moment ou ils seront assez évolués. Il peuvent nous apprendre beaucoup de chose, y compris sur nous meme, notamment en étudiant leur façon d'apprendre, de comprendre les choses ... C'est une expérience vraiment très excitante et j'ai hate de voir ce que ça peut donner, mais méfions nous ... le developpement d'intelligence artificielle a souvent commencé très loin des objectif philantropiques (armée principalement) et je ne voudrait aps voir une armée de robots nous envahir !

Cette contribution était de : http://blenderclan.tuxfamily.org/html/newbb/viewtopic.php?forum=8&topic_id=16652&post_id=208889