Journal d’audit
Un journal d’audit est un enregistrement chronologique et infalsifiable des événements et actions réalisés par un système, fournissant une trace vérifiable de ce qui s’est passé, quand cela s’est produit et qui ou quoi l’a déclenché.
Comprendre Journal d’audit
Les journaux d’audit sont indispensables dans tout système effectuant des actions significatives — en particulier ceux disposant de privilèges élevés, comme les assistants IA capables d’envoyer des e-mails, de créer des tâches ou de modifier des événements de calendrier en votre nom. Sans journal d’audit, il est impossible de reconstituer la chronologie des événements lorsqu’un problème survient. Les journaux d’audit remplissent de multiples fonctions : débogage (quelle séquence d’événements a conduit à ce résultat ?), sécurité (quelque chose a-t-il accédé à des données sans autorisation ?), conformité (peut-on démontrer que les procédures requises ont été respectées ?) et responsabilité (quel utilisateur ou quelle action système a déclenché ce changement ?). Pour les systèmes d’IA en particulier, les journaux d’audit sont essentiels car le comportement de l’IA est probabiliste et pas toujours prévisible. Lorsqu’un assistant IA effectue une action inattendue — envoie un e-mail non voulu, marque une tâche comme terminée trop tôt, ou supprime un événement de calendrier — le journal d’audit permet de comprendre précisément ce qui s’est passé et comment éviter que cela ne se reproduise. Un bon journal d’audit est en ajout seul (les entrées ne peuvent pas être modifiées ou supprimées), horodaté de manière précise, fournit suffisamment de contexte pour analyser l’événement, et peut être interrogé selon les actions ou plages horaires que vous devez examiner.
Comment GAIA utilise Journal d’audit
GAIA tient un journal d'audit de toutes les actions des agents : emails envoyés ou rédigés, tâches créées, événements de calendrier modifiés et automatismes déclenchés. Ce journal vous offre une transparence totale sur les activités de GAIA en votre nom, vous permet de revoir et d'annuler les actions récentes, et garantit la responsabilité si le comportement de l’IA produit des résultats inattendus.
Concepts liés
Garde-fous
Les garde-fous sont des contraintes de sécurité appliquées aux systèmes d'IA qui limitent, filtrent ou redirigent les sorties du modèle afin d'éviter des comportements nuisibles, incorrects ou non désirés, tout en permettant une utilisation bénéfique.
Humain dans la boucle
L'humain dans la boucle (HITL) est un modèle de conception dans lequel un système IA inclut une supervision et une validation humaines à des points de décision clés, garantissant que les actions sensibles ou à fort impact nécessitent une confirmation humaine avant exécution.
Alignement de l'IA
L'alignement de l'IA est un domaine de recherche et d'ingénierie qui vise à ce que les systèmes d'IA poursuivent des objectifs bénéfiques, sûrs et alignés sur les valeurs et intentions humaines, même lorsqu'ils deviennent plus puissants et autonomes.
Souveraineté des données
La souveraineté des données est le principe selon lequel les données sont soumises aux lois et à la gouvernance de la juridiction dans laquelle elles sont stockées, et les individus ou organisations ont le droit de choisir où résident leurs données et qui y a accès.
Auto-hébergement
L’auto-hébergement consiste à faire fonctionner un logiciel sur vos propres serveurs ou infrastructure au lieu d’utiliser un service hébergé dans le cloud, vous offrant un contrôle total sur vos données, la configuration et la disponibilité.


