L'intelligence artificielle et l'OSINT : les révélations du mois de février

1 mars 2025
L'intelligence artificielle et l'OSINT : les révélations du mois de février

L'univers fascinant de l'intelligence artificielle et de l'OSINT (Open Source Intelligence) ne cesse de nous surprendre. Ce mois-ci, des événements majeurs ont marqué le paysage numérique, révélant le potentiel incroyable – et les dangers – de ces technologies. Découvrez les cas les plus intrigants de février, qui vous laisseront bouche bée !

Des outils OSINT gratuits et accessibles : une révolution en marche ?

Trouver des outils OSINT performants et gratuits n’est pas toujours facile. Beaucoup sont payants ou inaccessibles en fonction de la localisation géographique. Cependant, de nouvelles solutions émergent et certaines sont particulièrement utiles pour les journalistes et les enquêteurs.

  • Lenso.ai: Cet outil d’analyse d’images par IA identifie visages, lieux et objets avec précision. Il a notamment permis d'identifier facilement une fausse information concernant l'élection de Rekha Gupta comme cheffe de gouvernement de Delhi. Malgré une version gratuite limitée, sa capacité à trouver des images similaires est déjà remarquable.

  • Sogou Image Search: Ce moteur de recherche d'images chinois offre des résultats plus performants sur les visages asiatiques et les images provenant de Chine. Il est une alternative intéressante, notamment pour les enquêtes concernant cette région du monde.

  • Hugging Face: Cette plateforme met à disposition un ensemble d'outils IA gratuits et open source, particulièrement adaptés aux journalistes. Transcription, analyse, génération de contenu… les possibilités sont multiples. « Les journalistes et les professionnels de l'OSINT peuvent désormais optimiser leurs flux de travail sans recourir à des logiciels coûteux », souligne Florent Daudens de Hugging Face.

L'imagerie satellite : un outil puissant au service du journalisme d'investigation

L’imagerie satellite est devenue un allié indispensable pour les journalistes d'investigation. Elle permet de documenter des catastrophes naturelles, de surveiller les changements environnementaux et même de révéler des violations des droits de l'homme. Malgré le coût parfois élevé, des ressources accessibles existent. Un récent webinaire du Global Investigative Journalism Network (GIJN) a notamment mis en lumière des techniques et des outils performants.

La fiabilité des outils de détection d'IA : un mythe à déconstruire

Face à la multiplication des images et vidéos générées par l'IA, les outils de détection se multiplient. Mais attention ! Leur fiabilité est loin d’être parfaite. « Les modèles d'IA évoluent constamment pour échapper à la détection, ce qui rend ces outils de plus en plus peu fiables », explique Karen Hao du Pulitzer Center. Il est donc crucial de ne pas se fier uniquement à ces outils et de privilégier les méthodes de vérification traditionnelles et plus poussées, comme la méthode d'analyse médico-légale par Hany Farid de UC Berkeley.

L'utilisation controversée de l'IA dans les événements majeurs

Février a été marqué par deux événements majeurs en Inde : les élections de Delhi et la Maha Kumbh Mela. Ces deux événements ont illustré à la fois le potentiel et les dangers de l’IA.

  • Élections de Delhi: L'utilisation de deepfakes, notamment par le parti Aam Aadmi Party (AAP), a suscité une polémique. Des images de B.R. Ambedkar bénissant Arvind Kejriwal ont été utilisées à des fins politiques. Une réaction en chaîne de deepfakes s'en est suivie, illustrant un usage manipulatoire de l'IA dans le contexte électoral.

  • Maha Kumbh Mela: Des images générées par IA, représentant des célébrités lors d'un bain sacré dans le Gange, ont envahi les réseaux sociaux. Ces fausses informations ont visé à manipuler l’opinion publique, illustrant la capacité de l’IA à amplifier la désinformation.

L'urgence d'une régulation internationale de l'IA

L'exemple du sommet de l'IA à Paris est emblématique. La déclaration signée par 61 pays, incluant la Chine, sur l'IA inclusive et durable, n'a pas été signée par des acteurs majeurs tels que les États-Unis et le Royaume-Uni. Cette absence souligne la difficulté de mettre en place une régulation internationale efficace de l'IA. La course à l'innovation technologique semble actuellement primer sur la réflexion sur les conséquences éthiques et sécuritaires.

Le Royaume-Uni à la pointe de la lutte contre l’abus d’IA

Face à la menace croissante des images d’abus sexuels sur mineurs générées par l’IA, le Royaume-Uni a pris une initiative majeure. La criminalisation des outils de création de ce type d'images constitue une première mondiale. Une initiative saluée, mais qui soulève également des questions sur la balance entre innovation et sécurité.

L'avenir de l'IA et de l'OSINT se joue aujourd'hui. La vigilance et une approche responsable sont cruciales pour exploiter pleinement leur potentiel tout en limitant les risques.

Nous sommes une équipe d'experts passionnés, convaincus que la sécurité informatique est devenue un enjeu majeur et stratégique pour toutes les organisations, quels que soient leur taille et leur secteur d'activité.
Partager cet article:
Top