L’année 2022 a vu se multiplier les crises : invasion russe en Ukraine, contestation en Iran, remise en cause du droit à l’avortement aux États-Unis, inflation tirée par la crise énergétique, événements climatiques extrêmes, pour finir sur le buzz ChatGPT (Generative Pre-trained Transformer), annonçant de nouveaux bouleversements dans le monde numérique autour des questions éthiques, juridiques et technologiques que posent l’Intelligence artificielle (IA ou AI en anglais) et particulièrement l’OpenAI.
Car il ne faut pas se leurrer, comme toute technologie, l’IA vient avec son lot de risques et en matière de protection des données, avant de voir nos DPO remplacés par une OpenAI, les risques de renforcer les cyberattaques ne sont pas négligeables. Pourtant, 2022 était déjà une année record en termes de cyberattaques, touchant des hôpitaux, des municipalités, des services de police, des universités, au même titre que les PME et TPE. Personne n’a été épargné.
Faut-il craindre l’IA ? Faut-il l’accueillir sans réserve dans nos pratiques en matière de protection des données et/ou de marketing ?
La réponse est plus que complexe. Aujourd’hui, il est trop tard pour la craindre, et certainement trop tôt pour ne pas émettre de réserves. Nous devons, surtout, l’accompagner, tant sur le plan technologique que juridique.
À l’heure où la ville de New York est sur le point de mettre en œuvre l’une des premières législations au monde régissant l’utilisation de l’IA et ses algorithmes en matière de protection des travailleurs (Local Law 144), l’Europe accuse un retard technologique et juridique considérable dans ce secteur…
Date de mise en ligne : 09/04/2024