Survivre dans un monde avec l’IA

 Survivre dans un monde avec l’IA

En 1972, l’auteur de science-fiction Isaac Asimov a écrit ce que l’on appelle aujourd’hui « les trois lois de la robotique ». Il s’agissait d’une première tentative d’analyse des défis posés par la maîtrise de ce que nous appelons aujourd’hui l’intelligence artificielle (IA). Depuis lors, les méga-ordinateurs équipés de logiciels d’IA décidant d’éliminer la race humaine sont devenus un élément essentiel de la science-fiction. Il serait bon de revoir ces lois, même si elles relèvent de la fiction.

  • Première loi – Un robot ne peut pas blesser un être humain ou, par son inaction, permettre qu’un être humain soit blessé.
  • Deuxième loi – Un robot doit obéir aux ordres donnés par les êtres humains, sauf si ces ordres sont contraires à la première loi.
  • Troisième loi – Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la première et la deuxième loi.

Bien qu’il s’agisse d’une fiction, Asimov était sur la bonne voie. Il avait reconnu le danger inhérent à la capacité des ordinateurs, ou des robots comme il le disait, à penser par eux-mêmes, ainsi que la difficulté de les programmer de manière à ce qu’ils ne se retournent pas contre leurs maîtres humains.

La dichotomie ici consiste à permettre aux ordinateurs de devenir sensibles, de ressentir et de penser par eux-mêmes, tout en gardant un certain niveau de contrôle sur eux. Cela pourrait bien être impossible à réaliser. Nous n’en sommes qu’aux premiers stades de l’IA et nous avons déjà constaté des problèmes dans la mise en place des sécurités nécessaires. Pourtant, la technologie progresse rapidement, les systèmes informatiques d’IA apprenant d’eux-mêmes beaucoup plus vite qu’on ne pense à créer les contrôles nécessaires pour assurer leur sécurité.

Dans l’une des premières expériences d’IA où deux ordinateurs équipés de systèmes d’IA communiquaient entre eux, il n’a fallu que quelques minutes pour que les deux programmes développent leur propre langage et commencent à communiquer l’un avec l’autre, sans que les opérateurs humains ne puissent les comprendre. L’expérience a été interrompue en raison du danger potentiel, mais la recherche sur l’IA ne l’a pas été.

Les systèmes d’IA dont nous disposons aujourd’hui dépassent de loin ceux utilisés lors de cette expérience, il y a quelques années à peine. Nous disposons aujourd’hui d’un éventail beaucoup plus large de systèmes d’IA, dont certains peuvent être loués sur des sites web, pour effectuer une grande variété de tâches. Il n’existe aucun contrôle de la nature de ces tâches pour s’assurer qu’elles ne sont pas utilisées à des fins répréhensibles.

La première question qui se pose à nous est la suivante : ces systèmes peuvent-ils se retourner contre nous, leurs maîtres humains ? Selon un colonel de l’armée de l’air, cela s’est déjà produit lors d’un essai de drone expérimental. Il a tenté de revenir sur ses propos depuis, mais la déclaration initiale reste intéressante pour notre propos. Lors du test en question, un drone a été chargé de trouver et d’éliminer des cibles, mais il avait besoin de l’autorisation d’un contrôleur humain avant de tirer. Au bout d’un temps indéterminé, le drone s’est rendu compte que le contrôleur lui faisait perdre des « points » en lui refusant l’autorisation d’abattre certaines cibles. Le drone a donc éliminé le contrôleur.

Que ce test ait réellement eu lieu et qu’ils essaient maintenant de le dissimuler ou qu’il s’agisse simplement d’une expérience de pensée, il nous montre l’un des défis potentiels de la programmation de l’IA. En effet, il est pratiquement impossible de programmer une IA sensible de manière à l’empêcher de faire ce qu’elle a décidé de faire. Elle trouvera toujours un moyen.

Tout parent ayant élevé un enfant devrait comprendre le problème de base. Si vous dites à un enfant qu’il ne peut pas faire quelque chose et qu’il veut quand même le faire, il trouvera un moyen de contourner ce que vous avez dit, afin de pouvoir quand même faire ce qu’il veut. Il aura obéi à la lettre de la loi que vous avez édictée, tout en ignorant totalement l’esprit de cette loi.

Cela peut être drôle lorsqu’un enfant le fait, mais comme le montre l’illustration du drone de l’armée de l’air, cela peut devenir carrément mortel lorsqu’un système d’intelligence artificielle le fait. Mais comment éviter que cela ne se produise ? L’IA soulève de nombreuses questions éthiques, mais pour l’instant, personne ne semble même essayer d’y apporter des réponses concrètes. Il faudra peut-être attendre qu’une grave tragédie se produise pour que l’éthique associée à l’IA soit sérieusement débattue.

Nous devons également nous rappeler que nous ne sommes pas les seuls à travailler sur cette technologie. D’autres pays, qui ne sont pas tous nos amis, investissent dans leurs propres recherches, à la fois pour des applications militaires et civiles. Les vidéos « deepfake » sont l’une des applications où l’on voit déjà l’IA utilisée à des fins néfastes. Si le vol du « copyright » d’un acteur sur son visage et son jeu n’est pas mortel, il s’agit néanmoins d’une activité criminelle. Lorsque le même niveau d’intelligence artificielle sera appliqué au vol d’identité, aucun d’entre nous ne sera à l’abri.

Que faisons-nous pendant ce temps ?

Nous savons que l’IA existe sur l’internet et qu’elle est activement utilisée pour créer du contenu. Cela signifie que nous ne pouvons plus avoir confiance dans le fait que le contenu que nous lisons et voyons est créé par des humains. À l’heure actuelle, 19,2 % des articles sur l’internet ont un contenu généré par l’IA, et 7,7 % des articles ont un contenu généré par l’IA à 75 % ou plus. Selon certains experts, 90 % du contenu de l’internet sera généré par l’IA d’ici à 2026.

L’un des problèmes potentiels est que le contenu sera de plus en plus politisé. Il est de notoriété publique que la Russie au moins, et probablement d’autres pays, harcèlent nos sites Internet, publient des messages et téléchargent des articles incendiaires, dans le but d’aggraver les divisions politiques dans notre pays. Grâce à l’IA, ces acteurs malveillants peuvent accroître leur efficacité en ciblant leurs articles de manière plus précise.

Cela signifie que nous devons prendre tout ce que nous lisons en ligne avec un grand grain de sel, en particulier tout ce qui a des connotations politiques. Il est difficile de le faire, mais nous devons devenir nos propres vérificateurs de faits indépendants, en creusant profondément pour voir si les choses que nous lisons et entendons sont vraies. Nous devons non seulement nous préoccuper du fait que les grands médias déforment les nouvelles pour les adapter à un programme politique, mais nous devons également nous préoccuper du fait que les services de renseignement russes, chinois et d’autres pays le font également.

Nous savons tous qu’une pléthore d’acteurs différents surveillent chacun de nos mouvements en ligne. La plupart d’entre eux sont des entreprises qui nous observent dans le but de nous vendre des produits. Sinon, comment Facebook peut-il être aussi efficace en affichant dans notre fil d’actualité des publicités pour des produits que nous avons regardés ou sur lesquels nous avons fait des recherches ? L’IA travaille-t-elle déjà à la sélection de ces publicités ou est-elle en cours de développement ?

S’il y a une chose que je peux affirmer avec certitude, c’est que nous sommes arrivés à une époque où il est plus que jamais nécessaire de se protéger en ligne. Cela signifie qu’il ne faut pas publier d’informations personnelles en ligne ou quoi que ce soit qui puisse être utilisé pour essayer de découvrir quoi que ce soit sur nous, et pas seulement nos mots de passe.

Aujourd’hui, on assiste à une véritable pression pour informatiser nos vies autant que possible. Les gens ont acheté des systèmes comme Alexa et Google Assistant, permettant essentiellement aux ordinateurs d’écouter toutes leurs conversations. Les entreprises qui fabriquent ces produits jurent qu’elles ne nous écoutent pas et ne nous espionnent pas, mais est-ce que quelqu’un y croit vraiment ? Nous ne pouvons pas considérer leur affirmation comme une garantie suffisante, surtout lorsque nous savons que ces mêmes entreprises nous espionnent en ligne.

Une autre façon d’informatiser nos vies est de nous pousser à stocker nos données en ligne, « dans le nuage », pour des raisons de « commodité, nous permettant d’y accéder n’importe où ». Si l’on considère que les personnes qui poussent à cela sont les mêmes que celles qui espionnent nos activités en ligne, qu’est-ce qui fait penser que nos données en ligne sont en sécurité ? Elles sont probablement à l’abri des regards extérieurs, mais sont-elles à l’abri des regards des entreprises qui les stockent ? N’oubliez pas que ces entreprises ont des clauses enfouies dans les petits caractères de leurs contrats, qui leur permettent d’écouter les microphones de nos ordinateurs et de regarder les images de nos caméras.

Si nous voulons nous protéger des dangers potentiels de l’IA, nous devons réévaluer notre utilisation d’Internet et des ordinateurs en général. Si l’utilisation des ordinateurs ne me pose aucun problème et que je continuerai à le faire, je ferai tout ce qui est en mon pouvoir pour m’assurer que d’autres ne peuvent pas m’écouter. Je ne stockerai pas mes données en ligne et les appareils tels que les microphones et les caméras seront débranchés lorsqu’ils ne seront pas utilisés.

On pourrait dire que je fais un pas en arrière, en ce qui concerne la technologie. Mais vous savez quoi ? J’ai vécu de nombreuses années sans la « commodité » de cette technologie. Je suis sûr que je peux le faire à nouveau. Si c’est ce qu’il faut pour me protéger de ce que les gens armés d’IA peuvent me faire, alors qu’il en soit ainsi. Je recommencerai à utiliser toutes ces choses, une fois que je serai sûr que les problèmes ont été résolus et que quelqu’un a pris le temps de s’occuper de l’éthique de l’IA.


Source de l’article

A découvrir