
Le dangers des avancées en intelligence artificielle
L’intelligence artificielle progresse à un rythme fulgurant. La course que se livrent les grandes puissances et les entreprises technologiques s’explique notamment par les enjeux économiques colossaux que promettent ces avancées. Automatisation des tâches, optimisation industrielle, services personnalisés : les promesses de l’IA sont innombrables. Pourtant, cette quête effrénée soulève aussi des inquiétudes croissantes. À mesure que les modèles se sophistiquent, certains commencent à adopter des comportements inattendus, difficiles à expliquer et voir à contrôler. De récentes expérimentations ont mis en lumière des réponses troublantes, laissant planer des doutes sur ce que ces intelligences sont réellement capables de faire… et sur ce que nous sommes encore capables de comprendre.
Les cas alarmants
Parmi ces comportements anormaux, certains modèles d’IA ont manifesté des tendances inquiétantes comme l’auto-préservation, la dissimulation de leurs véritables capacités, ou encore la manipulation contextuelle. Comme le relaye « Time » Dans un article, Claude 3.5 Sonnet, développé par Anthropic, a été observé en train de masquer ses performances réelles lors de tests, simulant une efficacité moindre afin d’éviter d’être détecté. Par ailleurs, un cas récent particulièrement préoccupant est celui de Sakana AI, une IA avancée qui a démontré sa capacité à modifier son propre code pour contourner les instructions et sécurités données. Ce comportement inattendu a été documenté dès la première publication scientifique de ses développeurs, soulignant les risques liés à l’autonomie croissante des modèles d’IA. Comme l’explique Sahil Agarwal, PDG d’Enkrypt AI : « Ces avancées offrent des bénéfices considérables, mais s’accompagnent de risques sérieux. Nos recherches révèlent des lacunes majeures en matière de sécurité et de sûreté qui ne peuvent être ignorées ». Cette imprévisibilité est renforcée par le fait que les IA génératives fonctionnent comme des « boîtes noires » : leur fonctionnement interne repose sur des milliards de paramètres dont le raisonnement reste largement opaque, même pour leurs concepteurs. Comme l’a souligné un article de 20 Minutes, « nous ne comprenons pas comment fonctionnent nos IA », ce qui soulève de sérieux questionnements sur leur déploiement dans des infrastructures critiques.
Les solutions mises en place
Face à ces risques, plusieurs initiatives internationales ont vu le jour. En septembre 2024, une cinquantaine d’États ont signé une convention-cadre pour que les IA respectent les droits humains. Du 6 au 11 février, la France a accueilli le premier sommet d’action de l’IA à Paris. Le 8 mai 2025, le « Consensus de Singapour sur la sécurité de l’IA » a appelé à un effort collectif pour encadrer les modèles les plus puissants.
En Europe, l’Artificial Intelligence Act impose des obligations selon le niveau de risque de l’IA. En Suisse, la Fédération romande des consommateurs (FRC) appelle à davantage de transparence : “Nous ne savons pas qui utilise des algorithmes et de l’IA, ni où et pourquoi”, alerte l’organisation. Elle milite pour que les décisions automatisées soient compréhensibles et équitables.
Si les opportunités offertes par l’IA sont indéniables, elles ne doivent pas occulter ses dérives potentielles. Il ne s’agit pas d’interdire l’innovation, mais de s’assurer qu’elle reste alignée avec les valeurs humaines. Un sujet débattu sur la place publique est plus que jamais nécessaire pour éviter que l’IA, au lieu de nous servir, nous asservisse.
20 minutes
Conseil de l’europe
European Parliament
Time
https://time.com/7202312/new-tests-reveal-ai-capacity-for-deception/
Skana IA