Un accord PLANÉTAIRE sur l’avenir de l’IA

Chère lectrice, cher lecteur,

Il ne se passe pas un mois sans que nous n’entendions parler des nouvelles prouesses accomplies par l’Intelligence Artificielle (IA).

Les progrès de cette technologie révolutionnaire avancent à une vitesse vertigineuse, dans tous les domaines.

Mais l’IA suscite aussi des inquiétudes quant à ses risques

Et pour faire face à ces défis, un sommet historique s’est tenu à Bletchley Park, au Royaume-Uni.

C’est à cet endroit qu’Alan Turing et son équipe avaient décrypté les codes de la machine Enigma pendant la Seconde Guerre Mondiale.

Et aujourd’hui, plus de 25 pays, dont la Chine, les États-Unis, l’Inde et l’Union européenne (UE), se sont réunis pour signer ensemble la Déclaration de Bletchley.

Cet accord historique marque un engagement mondial pour superviser un développement sûr et responsable de l’IA.

 

Une alliance unique au monde

En plus des dirigeants politiques de tous les pays, il y avait des experts en IA et des CEO des plus grands géants de la tech (comme Elon Musk, ou Sam Altman de la société OpenAI).

Tous ces acteurs ont souligné la nécessité de garantir la sécurité de l’IA, tout en permettant son développement continu.

Car les IA sont désormais au cœur de nombreuses applications que vous allez rencontrer chaque jour :

  • logiciels de recherche sur internet
  • conduite autonome
  • automatisation industrielle
  • recherche médicale
  • etc…

 

Les IA génératives comme ChatGPT peuvent créer des contenus sophistiqués, mais elles peuvent aussi se tromper, ou induire les humains en erreur.

Les risques potentiels en cas de dérive de cette technologie sont nombreux.

L’accord souligne que les capacités les plus avancées de l’IA risqueraient même d’entraîner des dommages graves, voire catastrophiques, délibérés, ou involontaires…

Par exemple, certaines IA pourraient servir à manipuler l’information, à hacker des systèmes sensibles, à créer de fausses vidéos “deepfakes”, à contourner les règles sur les données personnelles et la vie privée, voire même à faire peser une menace existentielle sur l’Humanité…

Il faut donc comprendre en amont comment elles fonctionnent pour pouvoir les réguler et mesurer leurs qualités et leurs faiblesses.

C’est pour cette raison que la Déclaration de Bletchley reconnaît la nécessité de suivre collectivement le développement de l’IA.

Et pour cela, les signataires de l’accord s’engagent à suivre deux grandes approches

 

Approche #1 : identifier et comprendre les risques

La première approche consiste à identifier les risques de sécurité liés à l’IA qui impliquent des préoccupations communes (comme des guerres, ou des contenus falsifiés).

Ensuite, cette identification est suivie d’une compréhension scientifique et factuelle de ces risques.

Et une fois cette compréhension acquise, les pays signataires évalueront l’évolution des capacités de l’IA et mesureront son impact éventuel sur la société.

Cela signifie que les pays coopéreront pour examiner les domaines où l’IA génère des risques potentiels, qu’il s’agisse de cybersécurité, de biotechnologie, ou de désinformation.

 

Approche #2 : élaborer des politiques basées sur les risques identifiés

La deuxième approche consiste à élaborer des politiques fondées sur les risques au niveau national pour assurer la sécurité des personnes, tout en encourageant la recherche et le développement de capacités pertinentes dans le secteur public.

Ces dispositions tiendront compte des cadres juridiques existants.

Et en plus de la transparence accrue de la part des acteurs privés qui développent des capacités d’IA avancées, les politiques prendront des mesures d’évaluation appropriées et des outils pour tester leur sécurité.

Cette approche vise à équilibrer la sécurité de l’IA avec l’innovation continue.

En réunissant des nations du monde entier autour des enjeux de sécurité de l’IA, la Déclaration de Bletchley constitue donc une étape cruciale pour permettre un développement sûr de l’IA au bénéfice de l’Humanité.

Mais cette initiative pourrait aussi poser un autre problème majeur

 

“Sécurité”, ou “perte de liberté” ?

L’administration Biden a déjà publié un décret réglementant l’IA pour assurer un “contrôle responsable” (selon le gouvernement…)

Et pour respecter ce cahier des charges imposé, ChatGPT a dû être “bridé” par les développeurs d’OpenAI…

Résultat, certaines de ses discussions sont censurées, ou orientées politiquement.

Pire, certains sujets sont même interdits.

La frontière entre la sécurité des utilisateurs et la censure des opinions contradictoires est donc floue…

Et on peut donc se demander : qui fixe les limites que l’IA ne doit pas franchir et en fonction de quels critères ?

Les réponses à ces questions pourraient bien demain orienter la façon de penser le monde de millions d’humains.

D’autant qu’en parallèle de l’IA, le gouvernement américain teste une autre technologie encore plus impressionnante.

Selon un rapport rendu public, les experts considèrent que “le statut des USA comme superpuissance repose maintenant sur les avancées dans ce domaine.”

Je vous dévoile ICI ce dont il s’agit et comment vous pourriez tirer parti de ce “Saint Graal de la science”

Amicalement,

Marc Schneider

 

La Lettre Argo Éditions

Inscrivez-vous et recevez en cadeau le dossier « Acheter ma première action »

Recevez ma lettre gratuite

Politique de confidentialité
0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest

2 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Claude gazengel
Claude gazengel
1 année il y a

Oui urgent de urgent de dompter la bête car actuellement il y a de telles déformations de l’info-commentaires qu’on ne peut plus croire qui et quoi que ce soit, c’est lamentable !!!

Calamity Jaune
Calamity Jaune
1 année il y a

Bonjour,
Comme on a pu le constater maintes fois dans l’Histoire, un traité peut être violé par l’un ou l’autre des signataires.
Que se passerait-il si un cousin d’Hitler, ou un savant fou, décidait de développer secrètement une application funeste pour l’Humanité ???
Ce genre d’individu a toujours existé et, aujourd’hui plus que jamais, la soif de pouvoir et/ou de fortune gangrène la société !
Sera-t-il possible de protéger la planète des « sorciers de l’IA » ???