Seuls les étudiants inscrits cette année peuvent accéder à ces documents. Merci de vous connecter pour les consulter.
Document
Fallery Conférence 2/10/2024
1. Où sont les problèmes? L'IA, en tant que branche de l’informatique, décompose les fonctions cognitives pour simuler des comportements humains dans les différentes activités. Les « Systèmes d'Intelligence Artificielle » sont alors des logiciels générant des contenus, des prédictions, des recommandations ou des décisions... qui INTERAGISSENT avec leurs environnements et les transforment : les logiciels de reconnaissance de formes, par exemple, dans les domaines de la santé, de l'éducation, de la justice, du travail... et de la guerre. 2. Comment peut-on gérer les questions posées par le pouvoir des empires numériques (Gafam-Natu-Batx), qui deviennent maîtres de véritables choix de société sur l’automatisation et sur la « rationalisation » du monde ? Si aucun des trois grands principes ÉTHIQUES ne peut ici s'appliquer (ni la vertu personnelle de prudence, ni la déontologie responsable, ni l'utilité des conséquences), alors il reste le DROIT (en y intégrant des normes techniques, ou bien en intégrant des principes juridiques dans les normes techniques). 3. Nous sommes concernés dans la construction difficile de ce droit de l'I.A. La Commission Européenne met en place cette année de nouvelles règles juridiques contraignantes (DMA, DSA et sur l'I.A. plus précisément : l'Acte AIA). Mais le tissu complexe croisant l’IA, l’éthique et le droit ne se construit pas seulement dans des rapports de force ou de connivence entre les Etats et les géants de la Tech. De nombreux collectifs de citoyens s’emploient à construire et à se servir d’un droit de l’IA (des associations de consommateurs jusqu’aux saboteurs d’antennes 5G, en passant par des hackers ou des médecins militants du logiciel libre...) dans la perspective des communs numériques, mise en avant par Elinor Ostrom.