OpenAI a révélé que les organisations pourraient bientôt être tenues de terminer un processus de vérification d'identification afin d'accéder à certains futurs modèles d'IA. La firme a déclaré qu'elle souhaitait empêcher l'utilisation abusive des API, limiter l'utilisation de l'IA dangereuse et dissuader le vol de propriété intellectuelle.
La société d'intelligence artificielle a déclaré que le statut d'organisation vérifié publié offrirait aux développeurs une nouvelle façon de débloquer l'accès aux modèles et capacités les plus avancés sur la plate-forme OpenAI. L'entreprise a également déclaré que l'avancer à travers des niveaux d'utilisation débloquerait des limites de taux plus élevées entre les modèles.
OpenAI propose une vérification d'identité pour l'organisation
Openai a maintenant ajouté la possibilité de vérifier l'organisation pic.twitter.com/sczuhpgj90
- Jonah Manzano (@jonah_manzano) 13 avril 2025
OpenAI a mentionné sur la page d'assistance de son site Web qu'il pourrait obliger les entreprises à terminer un processus de vérification d'identification pour accéder à certains futurs modèles d'IA. L'entreprise a noté que le processus de vérification, nommé organisation vérifiée, sera «une nouvelle façon pour les développeurs de débloquer l'accès aux modèles et capacités les plus avancés sur la plate-forme OpenAI».
La société technologique a également reconnu que la vérification nécessitera une pièce d'identité émise par le gouvernement de l'un des pays soutenus par l'API d'Openai. La société d'intelligence artificielle a noté qu'elle soutient actuellement ladentde plus de 200 pays.
Le fabricant de chatpt a ajouté qu'un identifiant ne peut vérifier qu'une seule organisation tous les 90 jours et que toutes les organisations ne seront pas éligibles à la vérification. Openai a exhorté les entreprises à vérifier à nouveau à une date ultérieure pour voir si la vérification devient disponible pour leur organisation.
"OpenAI a publié un nouveau statut d'organisation vérifiée comme une nouvelle façon pour les développeurs de débloquer l'accès aux modèles et capacités les plus avancés sur la plate-forme et d'être prêt pour la prochaine version passionnante de modèle."
~ Tibor Blaho, ingénieur en plomb à Aiprmcorp.
La page d'assistance se lit comme suit: «À OpenAI, nous prenons notre responsabilité au sérieux de nous assurer que l'IA est à la fois largement accessible et utilisée en toute sécurité.» L'entreprise a également fait valoir qu'une petite minorité de développeurs utilisent intentionnellement les API OpenAI en violation de leurs politiques d'utilisation. OpenAI a soutenu que «nous ajoutons le processus de vérification pour atténuer l'utilisation dangereuse de l'IA tout en continuant à mettre des modèles avancés à la disposition de la communauté des développeurs plus large.»
OpenAI a révélé qu'il ne prendrait que quelques minutes pour vérifier une organisation et que l'entreprise n'a pas d'exigences de dépenses. L'entreprise technologique a également souligné que l'avancement des niveaux d'utilisation débloquerait des limites de taux plus élevées entre les modèles.
La société d'IA a également reconnu que la vérification débloquerait l'accès aux modèles avancés et aux capacités supplémentaires sur la plate-forme OpenAI, qui permettra aux utilisateurs d'utiliser les dernières avancées de l'IA.
Incase Openai affirme que la vérification n'est pas disponible, l'entreprise conseille aux utilisateurs de continuer à utiliser la plate-forme et les modèles existants comme ils le font actuellement. La société a également fait valoir que des modèles nécessitant une vérification aujourd'hui pourraient être disponibles pour tous les clients à l'avenir, même sans vérification.
OpenAI cherche à augmenter la sécurité et à empêcher le vol IP avec vérification d'identification
L'entreprise pourrait pousser à renforcer la sécurité autour de ses produits avec le nouveau processus de vérification car ils deviennent plus sophistiqués et capables. OpenAI a publié plusieurs rapports concernant ses efforts pour détecter et atténuer l'utilisation malveillante de ses modèles, y compris par des groupes qui prétendument basés en Corée du Nord.
L'entreprise peut également travailler à dissuader le vol IP sur la base d'un rapport de Bloomberg plus tôt cette année concernant un laboratoire d'IA basé en Chine. Le rapport a noté qu'OpenAI étudiait si un groupe lié à Deepseek a exfiltré de grandes quantités de données via son APU fin 2024, peut-être pour des modèles de formation, ce qui viole les termes de l'entreprise. La société technologique a également suspendu l'accès à ses services pour les utilisateurs en Chine, Hong Kong et Macao l'année dernière.
Le fabricant de Chatgpt a également déclaré que cela faisait un peu plus d'un an depuis qu'il est devenu le premier laboratoire de recherche sur l'IA à publier des rapports sur ses perturbations. L'entreprise a noté qu'elle vise à soutenir des efforts plus larges de la part des gouvernements américains et alliés, des partenaires de l'industrie et d'autres parties prenantes pour prévenir les abus des adversaires et d'autres acteurs malveillants.
Cryptopolitan Academy: Vous voulez développer votre argent en 2025? Apprenez à le faire avec DeFi dans notre prochaine webclass. Enregistrez votre place