
Google, Microsoft, OpenAI et la startup Anthropic ont uni leurs forces pour créer un Forum sur la sécurité de l’IA, dans le but d’établir des pratiques d’IA responsables.
Cette alliance sans précédent réunit certains des plus grands acteurs de l’industrie technologique pour élaborer un cadre de normes de sécurité et de développement responsable de modèles d’IA de “frontière”.
Le Frontier Model Forum a été officiellement dévoilé via un article de blog, signifiant l’engagement des entreprises à donner la priorité à la sécurité du public et à la confiance dans les technologies d’IA. L’annonce intervient après une réunion de haut niveau entre ces entreprises et le président Biden, au cours de laquelle elles se sont engagées à traiter les dangers potentiels d’une intelligence artificielle incontrôlée.
Le Forum a défini trois domaines clés sur lesquels il se concentrera dans l’année à venir.
Premièrement, il vise à déterminer les meilleures pratiques pour le développement et le déploiement des applications d’IA. Veiller à ce que l’IA soit conçue et utilisée de manière responsable est essentiel pour éviter les conséquences imprévues et les dommages potentiels.
Deuxièmement, le groupe s’engage à faire progresser la recherche sur la sécurité de l’IA. Cet engagement reflète la reconnaissance de la nécessité d’amélioration continue et de vigilance dans l’identification et la réduction des risques liés aux technologies d’IA.
Enfin, le Forum prévoit d’engager des discussions transparentes sur les vulnérabilités, les risques et la sécurité avec différentes parties prenantes, notamment les législateurs, les institutions académiques et les acteurs de l’industrie. Des conversations ouvertes et collaboratives sont essentielles pour favoriser une approche globale de la sécurité de l’IA.
La vision du Forum va au-delà de ses membres actuels, car il est ouvert à d’autres organisations souhaitant adhérer, à condition qu’elles répondent aux critères relatifs aux “modèles de frontière”, définis comme des modèles d’apprentissage automatique à grande échelle dépassant les capacités des modèles existants les plus avancés. Cette approche inclusive vise à unir la communauté de l’IA dans la recherche de la sécurité et du développement éthique.
Brad Smith, président et vice-président de Microsoft, a souligné la responsabilité des entreprises technologiques dans la garantie de la sécurité, de la fiabilité et du contrôle humain de l’IA. Il a souligné que cette initiative marque une étape cruciale dans la promotion d’une IA responsable et dans la résolution des défis pour le bien de l’humanité.
Les inquiétudes croissantes concernant la sécurité et les risques liés à l’IA ont conduit à des appels en faveur d’une surveillance multilatérale et de l’établissement de directives pour les consommateurs et les entreprises. Les problèmes liés aux deepfakes, aux menaces en matière de cybersécurité, à la discrimination et à la collecte de données doivent être efficacement pris en compte par l’industrie technologique.
Dans le cadre de leur stratégie globale, les entreprises fondatrices prévoient de constituer un conseil consultatif dans les mois à venir. Ce conseil jouera probablement un rôle crucial en guidant les actions et les décisions du Forum.
La collaboration de Google, Microsoft, OpenAI et Anthropic dans la création du Frontier Model Forum représente une étape importante dans la promotion de pratiques d’IA responsables. En mettant en commun leur expertise et leurs ressources, ces leaders de l’industrie visent à façonner l’avenir de l’IA de manière à privilégier la sécurité, la fiabilité et le bien-être de l’humanité. Alors que les technologies d’IA continuent d’évoluer, cette initiative pose les bases d’un paysage de l’IA plus sûr et digne de confiance.