Sommaire
Apple a récemment publié un volume sans précédent d’informations sur la sécurité de ses nouveaux systèmes d’intelligence artificielle, en s’engageant à verser jusqu’à 1 million d’euros à ceux qui trouveraient des problèmes de sécurité. Cette initiative vise à garantir que les systèmes appelés Apple Intelligence soient privés et sécurisés.
Invitation à la recherche en sécurité
Apple a déclaré que cette publication constitue une invitation pour les chercheurs en sécurité et en confidentialité, ainsi que pour toute personne intéressée et curieuse sur le plan technique, à explorer plus en profondeur la technologie de sécurité afin de s’assurer de sa fiabilité.
Nouveaux outils et récompenses
Lors du lancement de ses nouveaux outils d’IA plus tôt dans l’année, Apple a annoncé qu’ils reposeraient sur un mélange de traitement local et de puissants ordinateurs cloud pour répondre aux demandes particulièrement intensives. L’entreprise a également développé un tout nouveau système de cloud computing pour garantir que ces demandes soient traitées avec le même niveau de confidentialité et de sécurité que si elles étaient effectuées directement sur l’appareil.
Private Cloud Compute
Ce système, appelé Private Cloud Compute, signifie que les données personnelles ne sont accessibles qu’à l’utilisateur, y compris pour Apple. La société a fait savoir que cela impliquait de nombreuses innovations techniques, notamment la création de systèmes de traitement cloud pour l’IA qui n’avaient pas été réalisés auparavant.
Engagement envers la transparence
Pour renforcer la confiance des utilisateurs, Apple permettra aux chercheurs d’inspecter et de vérifier les promesses de sécurité et de confidentialité de Private Cloud Compute. À cette fin, trois annonces majeures ont été faites.
- Publication d’un nouveau guide de sécurité offrant des détails approfondis sur la construction de Private Cloud Compute.
- Lancement d’un nouvel environnement de recherche virtuel permettant aux experts de recréer ces ordinateurs cloud sur leurs propres Macs.
- Annonce d’un programme de récompense pour encourager cette recherche.
Programme de récompense
Le programme de récompense propose jusqu’à 1 million d’euros aux chercheurs qui découvrent la vulnérabilité la plus grave, laquelle permettrait aux hackers d’exécuter leur propre code et d’accéder aux parties centrales de l’appareil. Des rémunérations moindres seront attribuées pour des failles moins critiques, et Apple a précisé que certaines vulnérabilités pourraient ne pas rentrer dans les catégories existantes, mais qu’elles seront tout de même évaluées.
Un appel à la recherche
Apple a également partagé que ces nouvelles annonces s’inscrivent dans sa conviction que la vie privée est un droit humain et que la sécurité en fait partie intégrante. L’entreprise a donc invité les chercheurs en sécurité à tester le système dans l’espoir de le rendre plus robuste.
Une architecture de sécurité avancée
Dans un article de blog, Apple a déclaré : « Nous croyons que Private Cloud Compute représente l’architecture de sécurité la plus avancée jamais déployée pour le cloud AI à grande échelle, et nous avons hâte de collaborer avec la communauté de recherche pour renforcer la confiance dans le système et le rendre encore plus sécurisé et privé au fil du temps. »