IA : Yoshua Bengio avertit les États-Unis

Le professeur et chercheur de l’Université de Montréal était aujourd’hui à Washington pour livrer un discours devant la sous-commission du Sénat américain sur la vie privée, la technologie et le droit. Voici une traduction de sa présentation :

“Président Blumenthal, membre de rang Hawley, membres du Comité judiciaire, je vous remercie de m’avoir invité à prendre la parole aujourd’hui.

Les capacités des systèmes d’IA ont progressé de manière constante au cours des deux dernières décennies, grâce aux avancées dans l’apprentissage profond que j’ai introduites, ainsi que d’autres personnes.

Bien que cette révolution ait le potentiel de permettre d’énormes progrès et innovations, elle comporte également un large éventail de risques, des risques immédiats tels que la discrimination aux risques croissants tels que la désinformation, et même des risques plus inquiétants à l’avenir, tels que la perte de contrôle des IA superintelligentes.

Récemment, moi-même et beaucoup d’autres avons été surpris par le bond gigantesque réalisé par des systèmes tels que ChatGPT, au point qu’il devient difficile de discerner si l’on interagit avec un humain ou une machine.

Ces avancées ont conduit de nombreux chercheurs de premier plan en IA, y compris moi-même, à réviser nos estimations concernant la réalisation d’une intelligence de niveau humain. Auparavant, on pensait que cela prendrait des décennies, voire des siècles, alors que nous croyons maintenant que cela pourrait être possible dans quelques années ou quelques décennies.

La période plus courte, disons cinq ans, est vraiment inquiétante car nous aurons besoin de plus de temps pour atténuer efficacement les menaces potentiellement importantes pour la démocratie, la sécurité nationale et notre avenir collectif. Comme Sam Altman l’a dit ici, si cette technologie échoue, cela pourrait être terriblement catastrophique.

Ces risques graves pourraient survenir intentionnellement en raison d’acteurs malveillants utilisant des systèmes d’IA pour atteindre des objectifs nuisibles, ou involontairement si un système d’IA développe des stratégies qui ne sont pas alignées sur nos valeurs et normes.

J’aimerais souligner quatre facteurs sur lesquels les gouvernements peuvent se concentrer dans leurs efforts de régulation pour atténuer tous les dommages et les risques liés à l’IA.Premièrement, l’accès, en limitant ceux qui ont accès aux puissants systèmes d’IA, en structurant les protocoles appropriés, les devoirs, la surveillance et les incitations pour qu’ils agissent de manière sécurisée.

Deuxièmement, l’alignement, en veillant à ce que les systèmes d’IA agissent conformément à l’intention, en accord avec nos valeurs et nos normes.

Troisièmement, la puissance intellectuelle brute, qui dépend du niveau de sophistication des algorithmes, de l’échelle des ressources informatiques et des ensembles de données.Et quatrièmement, la portée des actions, c’est-à-dire le potentiel de préjudice qu’un système d’IA peut causer indirectement, par exemple, par le biais d’actions humaines, ou directement, par exemple, par le biais d’Internet.

Ainsi, examiner les risques à travers le prisme de ces quatre facteurs – l’accès, l’alignement, la puissance intellectuelle et la portée des actions – est essentiel pour concevoir des interventions gouvernementales appropriées.

Je suis fermement convaincu que des efforts urgents, de préférence dans les mois à venir, sont nécessaires dans les trois domaines suivants :

Premièrement, la coordination de cadres réglementaires nationaux et internationaux hautement agiles et de mécanismes d’incitation en matière de responsabilité, qui renforcent la sécurité. Cela nécessiterait des licences pour les personnes et les organisations avec des devoirs standardisés pour évaluer et atténuer les dommages potentiels, permettre des audits indépendants et restreindre les systèmes d’IA présentant des niveaux de risque inacceptables.

Deuxièmement, étant donné que les méthodologies actuelles ne sont pas démontrablement sûres, accélérer considérablement les efforts de recherche mondiaux axés sur la sécurité de l’IA, permettant ainsi la création éclairée de réglementations essentielles, de protocoles, de méthodologies d’IA sûres et de structures de gouvernance.

Et troisièmement, la recherche sur les contre-mesures visant à protéger la société contre les IA potentiellement dangereuses, car aucune régulation ne sera parfaite. Cette recherche sur l’IA et la sécurité internationale devrait être menée par plusieurs laboratoires hautement sécurisés et décentralisés, fonctionnant sous une surveillance multilatérale pour atténuer une course aux armements en matière d’IA.

Compte tenu du potentiel significatif de conséquences préjudiciables, nous devons donc allouer des ressources supplémentaires considérables pour protéger notre avenir, au moins autant que nous investissons collectivement et mondialement dans l’augmentation des capacités de l’IA.

Je crois que nous avons une responsabilité morale de mobiliser nos esprits les plus brillants et de faire des investissements majeurs dans un effort audacieux et coordonné à l’échelle internationale, pour récolter pleinement les avantages économiques et sociaux de l’IA tout en protégeant la société et notre avenir commun contre ses dangers potentiels.

Je vous remercie de votre attention à cette question urgente. Je me réjouis de répondre à vos questions.”

– Yoshua Bengio, fondateur et directeur scientifique du Mila – Institut québécois d’intelligence artificielle de Montréal.

Vous pouvez visionner son passage ici : https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-principles-for-regulation

Laisser un commentaire