GPT pourrait impacter 80 % des métiers

Avec les progrès des grands modèles de langage comme GPT-4 d’OpenAI, capables d’écrire, de coder et de faire des mathématiques avec plus de précision et de cohérence, il ne faudra pas longtemps avant que l’IA ne devienne un outil courant dans le monde du travail. OpenAI lui-même parie qu’une grande majorité des travailleurs verront au moins une partie de leurs tâches automatisées par les modèles GPT.

Dans une étude, publiée par des chercheurs d’OpenAI et de l’Université de Pennsylvanie, ont estimé que 80 % de la main-d’œuvre américaine pourrait voir au moins 10 % de ses tâches touchées par l’introduction des GPT, la série de modèles de langage populaires créés par OpenAI. Ils ont également constaté qu’environ 19 % des travailleurs risquent que 50 % de leurs tâches soit affectées.

Ici, j’en profite pour faire une parenthèse pour expliquer deux choses, soit la différence entre l’IA générative et les modèles de langage.

L’IA générative est un terme général qui désigne les technologies capables de produire des contenus originaux à partir de données d’entrée. Ces contenus peuvent être du texte, des images, des sons ou d’autres types de médias. Un exemple d’IA générative est DALL-E ou Mid Journey. Des systèmes qui peuvent générer des images à partir de descriptions textuelles. Par exemple, si on lui demande de créer une image d’un chat portant un chapeau, il peut produire plusieurs versions différentes de cette scène.

Les modèles de langage sont une sous-catégorie de l’IA générative qui se concentrent sur le texte comme ChatGPT d’Open Ai ou Bard de Google. Ils sont capables de générer du texte cohérent et pertinent à partir d’un mot-clé, d’une phrase ou d’un contexte donné. Les modèles de langage utilisent des réseaux neuronaux profonds pour apprendre la structure et le sens du langage à partir de grandes quantités de données textuelles.

Mais pour revenir à l’étude, selon les chercheurs, l’exposition aux GPT est plus importante pour les emplois à revenu élevé. Mais le risque concerne presque tous les secteurs. Ils soutiennent que les modèles GPT sont des technologies généralistes comme la machine à vapeur ou l’imprimerie.

Quels sont les emplois menacés ? Les chercheurs ont utilisé une base de données qui recense plus de 1000 emplois aux États-Unis. Ils ont évalué le risque de remplacement par l’IA générative selon trois critères : la créativité, la complexité et la fréquence du langage écrit.

Ils ont constaté que les emplois les plus exposés sont ceux qui nécessitent un haut niveau d’éducation et qui impliquent beaucoup d’écriture. Par exemple, les avocats, les journalistes ou les professeurs.

À l’inverse, les emplois les moins menacés sont ceux qui demandent peu d’éducation et qui utilisent peu le langage écrit. Par exemple, les chauffeurs, les cuisiniers ou les coiffeurs.

Selon l’étude, près de 80 % des travailleurs américains pourraient voir au moins 10 % de leurs tâches modifiées, tandis que 19 % des travailleurs pourraient voir 50 % de leurs tâches perturbées par l’arrivée d’outils comme ChatGPT. Les chercheurs appellent donc à une prise de conscience et à une adaptation des politiques publiques face à ce défi.

Les métiers les plus exposés sont ceux qui exigent un haut niveau de revenu et de compétence, notamment dans les domaines de la finance, de l’éducation, du journalisme, de l’ingénierie et du graphisme. Voici quelques exemples de métiers que l’intelligence artificielle pourrait bouleverser : Analyste de l’information, analyste financier, assistant administratif, comptable, concepteur web et numérique, correcteur, écrivain, journaliste, mathématicien, préparateur d’impôts, relationniste, sténographe et traducteur.

Les auteurs de l’étude nuancent leurs résultats Les chercheurs qui ont mené l’étude précisent toutefois que leur méthode présente des limites : « Il n’est pas évident de décomposer les professions en tâches, et il se peut que nous ayons omis certaines compétences ou tâches qui sont implicitement nécessaires pour réaliser un travail de manière efficace », indiquent-ils.

Par ailleurs, et c’est important à rappeler, les modèles de langage ne sont pas parfaits et peuvent être victimes de fausses informations, ce qui requiert souvent une supervision humaine. Ces faiblesses devraient cependant s’atténuer avec le temps, à mesure que la technologie s’améliore.

Voici un lien vers la version PDF de l’étude….

Laisser un commentaire