La société à l’origine de ChatGPT lance un appel à candidature pour former un réseau Red Teaming. Composé de profils plus ou moins techniques, ce groupe doit se concentrer sur l’amélioration de la sécurité des modèles OpenAI. Mais qu’est ce que le réseau Red Teaming ?Pourquoi est il formé ?
«Nous annonçons un appel ouvert pour le Red Teaming Network d’OpenAI et invitons les experts du domaine intéressés par l’amélioration de la sécurité des modèles d’OpenAI à se joindre à nos efforts. Nous recherchons des experts de différents domaines pour collaborer avec nous à l’évaluation rigoureuse et au red teaming de nos modèles d’IA » indique la firme à l’origine de ChatGPT dans un communiqué. Elle explique ainsi qu’au cours des dernières années, ses efforts en matière de red teaming sont passés d’une focalisation sur les tests contradictoires internes à OpenAI à une collaboration avec une cohorte d’experts externes. Ce travail a notamment porté sur des modèles tels que DALL-E 2 et GPT-4.
Aujourd’hui, l’entreprise lance un appel à collaboration plus large afin de rendre ses modèles plus sûrs. Cela inclut la collaboration avec des experts, des instituts de recherche ou encore des organisations de la société civile ; un travail qui vient en complément des pratiques de gouvernance spécifiées à l’extérieur, telles que les audits par des tiers. L’équipe Red Teaming Network contribuera donc à informer l’évaluation des risques et les efforts d’atténuation plus largement, plutôt que des engagements ponctuels et des processus de sélection avant les déploiements majeurs de modèles. Les membres du réseau seront sollicités en fonction de leur expertise pour aider l’équipe Red à différents stades du cycle de développement des modèles et des produits. Toutefois, chaque membre ne sera pas impliqué dans chaque modèle ou produit, et le temps qu’il y consacrera sera déterminé avec chacun d’entre eux, ce qui pourrait représenter entre 5 et 10 heures par an.
En dehors des campagnes de red team commandées par OpenAI, les membres auront la possibilité de s’engager sur les pratiques et les résultats généraux du réseau. Ce dernier vient ainsi compléter d’autres formes de collaborations engagées par l’entreprise en matière de sécurité de l’IA, y compris son programme d’accès pour les chercheurs et les évaluations open source. Vantant les mérites de ce réseau, OpenAI assure que les membres participeront activement au « développement de technologies et de politiques d’IA plus sûres ». Concernant les compétences techniques recherchées, l’entreprise se montre assez floue et préfère parler de diversité.« L’évaluation des systèmes d’IA nécessite une compréhension d’une grande variété de domaines, de perspectives diverses et d’expériences vécues. Nous invitons des experts du monde entier à présenter leur candidature et privilégions la diversité géographique et la variété des domaines dans notre processus de sélection ». Une liste non exhaustive des sujets qui intéressent OpenAI est par ailleurs publiée et comprend : sciences cognitives, chimie, biologie, physique, informatique, stéganographie, science politique, psychologie, persuasion, économie, anthropologie, sociologie, éducation, droit de la santé, sécurité des enfants, cybersécurité, finance, désinformation, biométrie, langues et linguistique. Il est par ailleurs précisé qu’« une expérience préalable des systèmes d’intelligence artificielle ou des modèles de langage n’est pas nécessaire, mais peut être utile».
Enfin, la question de la rémunération est bien évidemment évoquée:«Tous les membres du réseau OpenAI Red Teaming seront rémunérés pour leurs contributions lorsqu’ils participeront à un projet de red team ». Les membres du réseau seront soumis à des accords de non-divulgation (NDA) ou de confidentialité pour une période indéterminée. Pour organiser ce réseau Red Teaming, un espace de candidature a été mis en place avec un certain nombre d’informations obligatoires à fournir, dont le niveau d’éducation, les motivations, les langues parlées ainsi que l’URL de son profil Twitter.
Pour résumer, le réseau Red Teaming est constitué à partir d’une collaboration avec des experts, des instituts de recherche ou encore des organisations de la société civile .Ce réseau va permettre de rendre des modèles plus sûr et sécurisé et informer l’évaluation des risques et les efforts d’atténuation.