[Corée Affaires 114] Les enjeux éthiques de l’IA : Mener les bons combats

L'intelligence artificielle va-t-elle remplacer l'être humain ? Pourrait-elle se retourner contre ses créateurs ?

Autant de questions qui animent le débat public et médiatique depuis le déploiement massif des outils d’IA générative et les déclarations sensationnalistes de quelques personnalités publiques. Cependant, aussi intéressante que soit cette spéculation d’un point de vue philosophique, la plupart des experts s’accordent à dire qu’elle est quelque peu prématurée.

Il est vrai que l’intelligence artificielle a un potentiel énorme. C’est une technologie qui va permettre d’automatiser un large éventail de tâches, de créer de nouveaux services et, à terme, de rendre les économies plus efficaces. L’IA générative marque une nouvelle étape dans cette tendance de fond dont nous commençons seulement à explorer les nombreuses applications. 

 

« l’IA générative permet de produire très facilement du contenu hautement viral – mais pas nécessairement digne de confiance. »

 Il ne faut cependant pas perdre de vue que, malgré leurs performances remarquables, les systèmes d’IA sont essentiellement des machines, rien de plus que des algorithmes intégrés à des processeurs capables d’assimiler de grandes quantités de données.

On nous a dit que ces nouveaux outils seraient capables de passer le test de Turing. C'est probablement vrai, mais ce test, que l'on croyait auparavant capable de tracer la frontière entre l'intelligence humaine et l'intelligence artificielle, n'a depuis longtemps plus de poids réel (Ses insuffisances ont été soulignées notamment par l’expérience de pensée de la chambre chinoise publiée par le philosophe américain John Searle en 1980) . Ces machines sont incapables d'intelligence humaine dans toute sa complexité, c'est-à-dire impliquant sensibilité, adaptation au contexte, empathie, réflexion et conscience, et il est peu probable qu’elles le puissent dans un avenir proche.

 

Si l’on adopte une vision plus prosaïque, on se rend compte que les questions éthiques soulevées par l’importance croissante de l’intelligence artificielle ne sont pas nouvelles, et que l’avènement de ChatGPT et d’autres outils les ont simplement rendues plus pressantes. Au-delà du sujet de l’emploi, ces questions touchent, d’une part, aux discriminations créées ou amplifiées par l’IA et les données de formation qu’elle utilise, et, d’autre part, la propagation de la désinformation (soit volontaire, soit du fait « d’hallucinations IA »). Cependant, ces deux sujets préoccupent depuis longtemps les chercheurs en algorithmie, les législateurs et les entreprises du domaine, qui ont déjà commencé à mettre en œuvre des solutions techniques et juridiques pour contrer les risques.

 

Voyons d'abord les solutions techniques. Les principes éthiques sont intégrés dans le développement même des outils d’IA. Par exemple, l’établissement de lignes directrices peut garantir que les systèmes sont transparents et explicables afin de donner de la visibilité aux consommateurs et aux utilisateurs. Les organisations doivent également viser à minimiser les préjugés (notamment concernant le sexe et l’apparence physique) dans la conception de leurs algorithmes, ce qui peut être réalisé par l’entrainement des données utilisées. Chez Thales, nous nous engageons depuis longtemps à ne pas construire de « boîtes noires » (L'intelligence artificielle « boîte noire » désigne tout type d'intelligence artificielle (IA) si complexe que son processus de prise de décision ne peut être expliqué de manière facilement compréhensible par les humains. L'IA boîte noire est l'opposé de l'IA explicative (XAI) ) lors de la conception de systèmes d’intelligence artificielle.

 

D’un point de vue légal, l’Union européenne (UE) a incontestablement pris les devants. La Commission européenne et le Parlement européen travaillent depuis plus de deux ans sur un projet de règlement visant à limiter par la loi les utilisations les plus dangereuses de l'intelligence artificielle. Les pays asiatiques devraient emboîter le pas et développer leurs propres cadres pour régir les applications de l’IA. Alors que le paysage continue d’évoluer, l’utilisation responsable de l’IA reste une priorité pour les gouvernements.

 

C'est aussi grâce à l'éducation et à un véritable changement sociétal que nous parviendrons à nous prémunir contre les risques liés à une mauvaise utilisation de l'IA. Ensemble, nous devons réussir à nous éloigner de la culture de l’immédiateté qui a fleuri avec l’avènement du numérique et qui risque d’être exacerbée par la diffusion massive de ces nouveaux outils. On le sait, l’IA générative permet de produire très facilement du contenu hautement viral – mais pas nécessairement fiable. Il existe un risque que cela amplifie les lacunes largement reconnues dans le fonctionnement des médias sociaux et la manière dont ils provoquent des réactions et des confrontations instantanées. De plus, ces systèmes, en nous habituant à obtenir des réponses « prêtes à l’emploi », sans avoir à rechercher, authentifier ou croiser les sources, nous rendent intellectuellement paresseux. Ils risquent d’aggraver la situation en affaiblissant notre esprit critique.

 

Prendre le temps de contextualiser et d'évaluer la fiabilité du contenu, et d'avoir un dialogue constructif plutôt que de réagir immédiatement sont les éléments essentiels pour une vie numérique saine. Nous devons veiller à ce que leur enseignement – tant en théorie qu’en pratique – soit une priorité absolue dans les systèmes éducatifs du monde entier. En offrant une éducation aux jeunes générations, nous contribuons à façonner l’avenir du marché du travail.

En tant que leader mondial de la technologie, Thales s’engage à explorer les opportunités et le potentiel de collaboration avec l’IA et tirer pleinement parti de la technologie. Par exemple, avec le récent lancement de « cortAIx », un accélérateur d'IA qui vise à équiper les forces armées, les avionneurs et les opérateurs d'infrastructures critiques de solutions d'IA sécurisées et efficaces, nous intégrons l'IA dans les systèmes critiques pour améliorer l'analyse des données et la prise de décision. Cette initiative renforce l'innovation et la sécurité dans divers secteurs, notamment la défense, l'aérospatiale, la cybersécurité et l'identité numérique. Dans le même esprit, afin d’assurer une meilleure sécurité de l’identité numérique, Thales se focalise sur l'intégration de l'IA pour offrir des solutions aux gouvernements et entreprises pour une authentification plus robuste des cartes biométriques et sur l'utilisation d'algorithmes et d'apprentissage automatique pour prévenir la fraude à l'identité.

 

Si nous continuons de relever ces défis, nous pourrons enfin exploiter l’énorme potentiel de cette technologie pour faire progresser la science, la médecine, la productivité et l’éducation.

 


Cet article est issu du magazine Corée Affaires n°114, le seul magazine bilingue francais-coréen de la communauté d'affaires française en Corée.

 

Lire le magazine

 

Plus d'Actualités

Partager cette page Partager sur FacebookPartager sur TwitterPartager sur Linkedin