La Liberté

L’IA: un défi juridique, social et éthique

L’intelligence artificielle est un défi juridique, social et éthique. Le point sur les questions que pose cette technologie numérique révolutionnaire

Pour une utilisation responsable de l’IA et pour limiter les risques, la question de l’éthique se pose. © Héloïse Hess
Pour une utilisation responsable de l’IA et pour limiter les risques, la question de l’éthique se pose. © Héloïse Hess

Manon Becker

Publié le 05.06.2023

Temps de lecture estimé : 3 minutes

Technologie » Dans un monde où un système d’intelligence artificielle (IA) peut prendre le contrôle d’une radio, où des diagnostics médicaux sont dictés par des IA et où une cyberarmée militaire peut être déployée pour défendre le pays, il devient évident que cette nouvelle technologie soulève des questions éthiques.

Selon le Conseil de l’Europe, l’IA désigne des systèmes qui sont du domaine de la science-fiction et des systèmes déjà opérationnels en capacité d’exécuter des tâches très complexes (reconnaissance de visage, conduite de véhicule, etc.). Elle réunit des sciences, théories et techniques dont le but est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain.

En Suisse, la réglementation de l’IA est encore trop floue. Ceci peut entraîner une utilisation malveillante des données des utilisateurs et pourrait donc créer des vulnérabilités en matière de cybersécurité. Pour une utilisation responsable de l’IA et pour limiter les risques, la question de l’éthique s’impose.

Johan Rochel est enseignant à l’Ecole polytechnique de Lausanne et à l’Université de Fribourg. Il estime que plus les robots nous ressemblent, plus nous nous posons des questions éthiques. Auteur du livre Les robots parmi nous paru aux Editions Savoir Suisse en 2022, il explique: «Pour défendre une technologie plus éthique, nous devons demander des comptes aux élus ainsi qu’aux entreprises qui conçoivent ces outils.»

En outre, les biais de l’IA constituent un sujet de préoccupation majeur. Les systèmes d’intelligence artificielle, malgré leur apparence objective, peuvent être influencés par des préjugés. Cela peut se produire lorsque les algorithmes sont formés sur des ensembles de données biaisés ou lorsqu’ils reproduisent des schémas problématiques déjà existants. Les conséquences peuvent entraîner des discriminations systémiques dans des domaines tels que l’emploi, le logement ou même les décisions judiciaires.

«Si les IA reproduisent des biais c’est parce qu’elles se basent sur les nôtres. Par exemple, dans un contexte médical on a besoin d’avoir toutes les caractéristiques génétiques. Dans un cas de recrutement cela peut entraîner de véritables discriminations», explique la professeure Elena Mugellini, responsable de l’Institut HumanTech, à la HES-SO Fribourg.

Et si tout s’enchaîne trop vite?

En septembre 2023, une révision totale de la loi sur la protection des données par le Conseil fédéral devrait avoir lieu. Ceci devrait assurer une meilleure protection des données personnelles.

«En Suisse, énormément de données ont été collectées de manière injustifiée au fil des années. Il faut que nous soyons intransigeants sur la protection de nos données», estime Vincent Sorba, étudiant à l’Université de Fribourg.

Articles les plus lus
Dans la même rubrique
La Liberté - Bd de Pérolles 42 / 1700 Fribourg
Tél: +41 26 426 44 11