Introduction

L'accès à l'API OpenAI est généralement payant, mais un projet open source permet désormais d'y accéder gratuitement en utilisant un compte ChatGPT. Ce projet, appelé openai-oauth, utilise les tokens d'authentification OAuth de ChatGPT pour créer un proxy localhost vers l'API OpenAI.

Contexte Technique

Le projet openai-oauth est divisé en trois packages : openai-oauth-core, openai-oauth-provider et openai-oauth. Le package openai-oauth-core gère les paramètres de transport et d'authentification, tandis que le package openai-oauth-provider est un fournisseur de SDK pour Vercel AI. Le package openai-oauth est un package CLI et localhost qui permet d'accéder à l'API OpenAI en utilisant les tokens d'authentification de ChatGPT.

Les endpoints actuellement supportés sont /v1/responses, /v1/chat/completions et /v1/models. Les réponses en streaming, les appels d'outils et les traces de raisonnement sont également supportés. Cependant, seuls les modèles LLM supportés par Codex sont disponibles, et la connexion est intentionnellement non incluse dans le package.

Analyse et Implications

Ce projet peut avoir des implications importantes pour les développeurs qui souhaitent utiliser l'API OpenAI sans avoir à payer des frais. Cependant, il est important de noter que ce projet est maintenu par la communauté et n'est pas affilié à OpenAI. Les utilisateurs doivent donc être conscients des risques potentiels liés à l'utilisation de ce projet, tels que la violation des conditions d'utilisation d'OpenAI ou la fuite de données sensibles.

Perspective

Il est important de surveiller les mises à jour de ce projet et les réactions d'OpenAI. Les utilisateurs doivent également être conscients des limites de ce projet, notamment le fait que seuls les modèles LLM supportés par Codex sont disponibles. Les prochaines étapes pour ce projet pourraient inclure l'ajout de support pour d'autres modèles ou l'amélioration de la sécurité et de la confidentialité.