Des scientifiques s’inquiètent d’un futur où le piratage du cerveau serait possible. Ils s’interrogent aussi sur la responsabilité en cas de dysfonctionnement d’interfaces cerveau-machine. Et pour des juristes, la personnalité juridique des robots n’est clairement pas une bonne solution.
Les progrès en biotechnologie et sur les interfaces informatiques cerveau-machine, comme Neurolink d’Elon Musk, permettront peut-être un jour à nos cerveaux d’être combinés à un ordinateur. Mais comment empêcher un attaquant de pirater ce dispositif pour blesser autrui ou nous-mêmes ?
Une autre question est celle de la responsabilité. Ou comme le posent des scientifiques du Centre Wyss de Bio et Neuroengineering basé à Genève, « Qui est responsable si un cerveau contrôlé par un robot laisse tomber un bébé ? »
Brainjacking : Where is my mind ?
Si une interface informatique cerveau-machine (BMI) est actuellement utilisée pour aider les personnes atteintes de paralysie à communiquer, les scientifiques s’inquiètent du jour où les valides s’amélioreront grâce aux BMI.
Ils ont publié un article dans la revue Science intitulé « Aide, espoir et hype : dimensions éthiques des neuroprothèses », qui appelle à de nouvelles lignes directrices afin de garantir que les interactions cerveau-machine soient sûres.
« Nous ne voulons pas exagérer les risques ni susciter de faux espoirs pour ceux qui pourraient bénéficier de la neurotechnologie. Notre objectif est de veiller à ce qu’une législation appropriée suive le rythme de ce domaine en progression rapide » déclare le professeur John Donoghue, co-auteur de l’article et directeur du centre de Genève.
A l’image de technologies comme les véhicules autonomes et l’intelligence artificielle, la BMI et un avenir de robots semi-autonomes soulèvent des questions éthiques sur la responsabilité, la confidentialité et la sécurité.
IA et robots : un besoin d’éthique et de démystification
Selon eux, devrait être prévue sur les robots semi-autonomes l’obligation d’intégrer un interrupteur de mise hors-service, un kill-swtich, pour pallier un bug dans l’interface. Si un robot semi-autonome ne disposait pas d’un mécanisme de contrôle ou de neutralisation fiable, une personne pourrait être considérée comme négligente si elle l’utilisait pour ramasser un bébé, mais pas pour d’autres activités moins risquées, suggèrent les chercheurs.
Ils sont également préoccupés par la sécurité des données sortant du cerveau, qui devraient être protégées par du chiffrement, et la possibilité de « brainjacking » ou de manipulation malveillante des implants cérébraux. Un individu dans une position de pouvoir ou détenteur d’une propriété intellectuelle précieuse pourrait être exposé à un risque plus élevé d’attaques ciblant les lectures cérébrales.
Protégez mes données neuronales sensibles
Laurie Pycroft, doctorante au Département des sciences chirurgicales de Nuffield de l’Université d’Oxford, a soulevé des inquiétudes concernant le brainjacking dans un article récent sur le potentiel pour des attaquants d’épuiser les batteries alimentant des implants du cerveau, ou de les utiliser pour induire de la douleur, modifier des émotions et causer des dommages aux tissus.
Le chercheur du centre Wyss, le professeur Niels Birbaumer, souligne que les données produites par la BMI utilisée pour les personnes atteintes de paralysie contiennent des données neuronales sensibles, telles que des réponses à des questions personnelles.
« Une protection stricte des données doit être appliquée à toutes les personnes impliquées, ce qui comprend la protection des informations personnelles ainsi que la protection des données neuronales pour s’assurer que le périphérique fonctionne correctement ».
La question de la responsabilité se pose plus généralement dans le domaine de la robotique à mesure que les robots gagnent en « intelligence » et en autonomie. Des législateurs réfléchissent ainsi à la possibilité de doter les machines d’une personnalité juridique.
Mais est-ce impératif de prévoir un nouveau régime spécifique de responsabilité ? Des juristes mettent en garde contre une telle perspective. C’est notamment le cas de Nathalie Nevejans, maître de conférences en droit. Elle s’exprimait sur ce point précis à l’occasion du salon Innorobo 2017.
Elle citait ainsi l’exemple d’un article de presse titré un « salarié tué par un robot ». La juriste signalait qu’il fallait voir dans cette affaire un cas d’accident du travail. Pour Nathalie Nevejans, le mythe le plus actif en droit aujourd’hui est indubitablement celui de la personnalité juridique du robot.
Le robot autonome, et donc responsable de ses dommages ?
Ce mythe « repose sur l’idée, plus ou moins avouée, que le robot serait quelque chose de plus qu’une machine. On comprend bien avec les spécialistes que le robot n’est qu’une machine sans âme, sans pensée propre, sans conscience ni volonté propre. Votre robot aspirateur n’est pas en train de se poser des questions sur le devenir de l’homme ou le sien quand il aspire. Il ne souffre pas plus lorsqu’il est en panne. »
Mais au-delà de l’absence de justification, la création d’une personnalité juridique pour les robots pourrait avoir de graves effets de bord. Considérer le robot autonome comme une personne électronique reviendrait à le considérer comme propriétaire de ses propres dommages, plutôt que de se retourner vers son fabricant ou son propriétaire.
« Bref, créer une personnalité juridique pour aider, soutenir et solutionner la question de la responsabilité en robotique n’aide en rien. Evacuons cette question comme fausse d’un point de vue juridique et inappropriée en ce qui concerne les droits fondamentaux » tranchait l’experte du droit.
IA et robots : un besoin d’éthique et de démystification
Attribuer une telle personnalité à un sujet revient à lui reconnaître des droits et des obligations dans la société. C’est le cas par exemple pour une société. Mais pourquoi établir une distinction entre une entreprise et un robot ?
« La personnalité juridique des sociétés est en droit une fiction juridique, avec derrière le ou les directeurs de la société qui vont agir en justice car ce sont eux qui véritablement dirigent l’entreprise. C’est elle qui est responsable et paie. Vous limitez en quelque sorte la responsabilité des humains, mais ce sont bien les vivants qui la dirigent, lui donnent une âme. »
Doter la machine d’une personnalité juridique comparable reviendrait selon Nathalie Nevejans à affranchir les fabricants de leurs responsabilités, qui n’auraient pas à indemniser les victimes en cas d’accident. Une perspective qui créerait un climat de défiance à l’égard des machines, prévenait-elle.
Pour autant, elle défend vivement la nécessité pour les industriels d’aborder les questions de droit et même d’éthique. « La notion de responsabilité ne doit pas faire peur aux industriels […] Les questions éthiques sont centrales pour fabriquer des robots sûrs, acceptés et appréciés par le grand public » suggérait-elle.
Article à lire sur http://www.zdnet.fr/actualites/cerveau-et-robotique-quid-de-la-responsabilite-39854616.htm