Accueil


Etat

Faut-il réglementer l'Intelligence Artificielle ?

Par ysaenger le 16 mars 2024 15:24

L'avènement de l'Intelligence Artificielle (IA) marque une étape significative dans l'évolution technologique, offrant des possibilités révolutionnaires tout en suscitant des préoccupations croissantes quant à son impact potentiel sur la société. Alors que l'IA promet des avancées majeures dans divers domaines, les questions éthiques et les risques liés à son utilisation soulèvent le débat sur la nécessité de mettre en place une réglementation. Examinons d'abord les avantages que l'IA peut offrir avant d'explorer les aspects à réguler.

L'intelligence artificielle de nos jours

De la reconnaissance faciale aux recommandations personnalisées en ligne, l'IA façonne notre expérience quotidienne de manière souvent imperceptible. Les algorithmes d'apprentissage automatique alimentent les moteurs de recherche, optimisent les flux logistiques, et rendent nos interactions numériques plus intuitives. Dans le secteur médical, l'IA accélère les diagnostics, propose des traitements personnalisés et stimule la recherche de nouvelles thérapies.

Les assistants virtuels et les enceintes intelligentes ont trouvé leur place dans nos foyers, simplifiant des tâches courantes et anticipant nos besoins. Les véhicules autonomes sont en phase de test sur nos routes, promettant de réduire les accidents liés à l'erreur humaine. Ces avancées, bien qu'impressionnantes, s'accompagnent d'une série de préoccupations qui nécessitent une évaluation minutieuse.

Ce domaine technique se compose en sous-domaines dont :

  • Machine learning ou Apprentissage automatisé : système informatique cherchant des motifs récurrents dans des données, avec des notions de modèles (structure de mémoire), d'entrants et de sortants (types de données que le modèle peut traiter et fournir), d'entraînement (ajustement du modèle selon des données connues) et d'exécution (utilisation du modèle ajusté)
  • Algorithme génétique : utilisation du machine learning semblable à la théorie de l'évolution, avec une population (plusieurs utilisations d'un modèle ayant des réglages différents) et au tour à tour (générations) des survivants (meilleurs éléments selon des données d'entraînement) et des mutants (éléments modifiés ou fusionnés). Exemple avec Trackmania
  • Neural network ou Réseau de neurones : utilisation du machine learning dont le modèle est une composition d'éléments simples semblable aux neurones, s'assemblant dans une structure complexe. Démonstration du neural network avec Tensorflow
  • Deep learning ou Apprentissage profond : utilisation massive du réseau de neurones pour répondre à des requêtes complexes (voix, messages, créations)

Les préoccupations

À mesure que l'IA évolue, des inquiétudes éthiques émergent :

  • Les intelligences artificielles ne disent pas la vérité. Ils ne connaissent pas de vérité. Ils ne sont entrainés que sur des données qui leurs ont été fournis, et peuvent largement se tromper, ne pas connaitre une réponse et avoir un mauvais raisonnement. Ici un exemple léger avec les premières décimales au lieu des dernières. 
  • La responsabilité n'est pas claire en cas d'erreurs d'une intelligence artificielle. Exemple d'une voiture croyant s'arrêter au feu orange en analysant la lune.
  • Elle peut automatiser le baratin. En générant des textes, il peut s'avérer plus compliqué de prouver la réalité devant une multiplication des propos.
  • Elle peut créer des documents (articles, photos, audio et vidéo) avec de fausses informations (deep fakes)
  • Elle peut armer des utilisateurs malveillants dans des cas d'abus de confiances (réponses automatisées) ou de harcèlements (modification d'une photo d'une personne)
  • Elle touche à la protection des œuvres (pouvant copier les données d'entraînements)
  • Elle peut prendre de mauvaises décisions, semblable à une discrimination. Cela peut venir des données d'entrainements qui soit sont partielles, soit ne permet pas de distinguer les causes et les conséquences. Une intelligence artificielle ne cherche que des corrélations sans les comprendre.
  • Elle peut impacter l'éducation des enfants avec des devoirs maisons effectués par l'informatique.
  • Elle a un impact écologique venant principalement de l'énergie dépensée pour son entraînement, qui est une exécution en boucle pour affiner les valeurs, dont les progrès peuvent être très faibles à chaque itération.
  • Elle impacte l'emploi dans des domaines de la création et de la rédaction, et probablement d'autres.
  • Elle pose question sur la protection des données, surtout quand l'IA est centralisé dans des serveurs et que l'utilisateur ne contrôle pas ce qui est fait de ses requêtes ou des données des micros ouverts.

Cependant il faut aussi démystifier :

  • Il est souvent dit que l'Homme n'utilise que 10% de son cerveau. Ce nombre correspond mesure de l'activité sans que ce soit précis. Pour l'informatique, il n'y a pas de fatigue, et surtout les modèles sont dédiés à des tâches précises (répondre, dessiner...) sans pouvoir changer d'activité.
  • Il est souvent dit que personne ne connait le fonctionnement d'une IA. Son développement est maitrisé, mais son entrainement se base sur des ajustements d'écarts, ce qui fait perdre le sens concret des données des modèles des IA. Si l'on ne peut pas répondre d'à quoi sert un nombre que vous pouvez choisir, c'est qu'il n'a de sens que s'il fait partie d'un tout.
  • Les images générées par des IA peuvent aujourd'hui encore avoir des défauts. Le nombre de doigts ou de dents peuvent être erronées (main à 4 ou 6 doigts). Les continuités en arrière-plan peuvent ne pas être respectées (couleur d'un mur derrière une personne différente entre la droite et la gauche, barre déformée ou pas de la même matière d'un bout à l'autre).

Et actuellement

Bien que des lois se préparent au niveau de l'Union Européenne (IA act) et potentiellement de la France (plusieurs propositions dont ce rapport), il est utile de rappeler que venant d'une IA ou non, des lois existent déjà sur les points cités, comme sur la diffamation, la falsification de preuves, le harcèlement et la propriété intellectuelle.

Il est aussi bon de rappeler qu'un véhicule doit avoir un conducteur, et "Le conducteur d'un véhicule est responsable pénalement des infractions commises par lui dans la conduite dudit véhicule." (art.121-1 code de la route), avec des changements déjà faits dans ce domaine.

Notons aussi qu'une idée bonne sur le papier peut se révéler néfaste. Ainsi le générateur d'image Google Gemini a été fermé à la suite de quelques cas de révisionnisme. L'entraînement de cet IA cherchait à compenser des biais en en créant d'autres.Génération d'images par IA : Google reconnaît avoir raté son coup

De plus, la question de l'informatique a une portée internationale, avec la possibilité d'un pays ne souscrivant pas à une réglementation d'accomplir ce qui est inatteignable pour d'autres.

Enfin, la position des grandes puissances peut être revue. Certaines tâches se simplifiant et devenant accessible même à ceux qui n'en avaient pas les moyens et le savoir. La concurrence peut donc devenir plus importante à l'exception de ceux qui possèdent l'IA centralisé et qui peuvent la bloquer.

Edito

En tant que rédacteur de cet article, je m'oppose à une législation sur l'IA, qui nous laisserait à l'âge de pierre par rapport aux autres pays qui vont de l'avant. Oui l'IA entraine des changements, et il est préférable de nous armer techniquement (outils de reconnaissance de fausses images, chercheurs de sources) et socialement (ouvrir des emplois dans de nouveaux domaines que l'IA offre son exploitation ou son apprentissage).

Je me méfie également de l'IA centralisé, mais au contraire espère que l'IA pourra s'installer dans les ordinateurs et de partager si l'on souhaite des données déjà entraînés pour réduire l'impact écologique globale.

Par ysaenger le 16 mars 2024 15:24

Commentaires

Veuillez vous connecter pour commenter et réagir
YS
Pascal il y a 1 mois
0 pour 0 contre 0 flou 0 blanc

Bah est-ce possible de réglementer l 'IA tout comme les robots d'usine malgré le fait qu'il y a un contrôle humain dessus elle ont envahi nos industries. Donc faut ils des humains pour contrôler l'IA ? Pour moi c'est un oui.

Afficher / cacher les 3 réponses