API Personnalisée
Également connu sous le nom de BYOK (Bring Your Own Key - Apportez votre propre clé). Ce guide est destiné à l'obtention et à la configuration d'un jeton API d'IA personnalisé pour WriteTex. Si vous êtes déjà familier avec ce processus, vous pouvez ignorer ce guide. Voici un guide de configuration étape par étape.
Clause de non-responsabilité
WriteTex (nous) n'est pas responsable des coûts encourus par l'utilisation d'une API personnalisée. Vous devez respecter les conditions d'utilisation du fournisseur de services API d'IA et les lois en vigueur dans votre juridiction. Nous ne sommes pas responsables des résultats générés par les modèles de votre fournisseur. Nous ne sommes pas affiliés à ces sociétés. Pour plus d'informations, consultez nos Conditions d'utilisation.
Définitions
- API compatible OpenAI : Une API compatible avec la spécification API d'OpenAI. WriteTex s'attend à ce que votre point de terminaison API soit dans ce format.
- Point de terminaison API / URL de base (Base URL) : L'URL de base de votre point de terminaison API. Il s'agit de l'URL racine où votre API est hébergée. Par exemple,
https://api.openai.com/v1. - Jeton / Clé API : Un identifiant unique utilisé pour authentifier les demandes auprès de votre API. Il doit être gardé secret et ne pas être partagé publiquement. Par exemple,
sk-1234567890. - Nom / ID du modèle : Le nom ou l'ID du modèle que vous souhaitez utiliser avec WriteTex. Par exemple,
gpt-5.1,qwen/qwen3-vl-8b-instruct. Il s'agit d'un paramètre hautement unique qui ne s'attend pas à des entrées vagues telles quegptouqwen. - Version de l'API : La version de l'API que vous utilisez. WriteTex s'attend à la version
v1sur Windows, Android et macOS. Si l'URL de base se termine par/v1, vous devez supprimer le/v1de votre URL de base sur les appareils Windows, Android et macOS. Pour plus d'informations sur l'URL de base et la version de l'API, reportez-vous au guide spécifique à la plateforme. - Fournisseur de services API : Le fournisseur de services qui héberge votre API. Il s'agit généralement de géants de la technologie bien connus comme OpenAI, Alibaba, Anthropic, Tencent, Google, ByteDance, etc.
- Modèles de langage de vision / Modèles multi-modaux : Ces modèles sont capables de comprendre le texte et les images. Ils sont généralement plus puissants que les modèles de langage traditionnels. Par exemple,
gpt-5.1est un modèle multi-modal. - Tokens : Les tokens sont les unités de base du texte que le modèle traite. Pour chaque requête, vous consommez une quantité de tokens basée sur votre entrée et la sortie du modèle. Le nombre de tokens consommés est proportionnel au coût de la requête. Normalement, les tokens d'entrée et de sortie ont des prix différents. Par exemple,
gpt-5.1a un prix de 1,25 $ / 1M de tokens pour l'entrée et 10 $ / 1M de tokens pour la sortie.
Choisir un fournisseur et un modèle
Lors du choix d'un fournisseur et d'un modèle, tenez compte des facteurs suivants :
- Performance : Recherchez des modèles qui performent bien dans les tâches d'OCR. Consultez le classement LMArena pour plus d'informations.
- Coût : Comparez le coût d'utilisation de différents modèles. Certains modèles peuvent être plus chers que d'autres. Les coûts sont calculés par :
Nombre de tokens d'entrée * Prix d'entrée + Nombre de tokens de sortie * Prix de sortie.
- Capacités du modèle : Votre modèle doit prendre en charge l'entrée de vision, ce qui signifie qu'il doit s'agir d'un modèle multi-modal. Par exemple,
gpt-5.1est un modèle multi-modal. Vous pouvez consulter le site Web du fournisseur pour plus d'informations.
Comment vérifier si un modèle prend en charge l'entrée de vision ?
- Recherchez des modèles avec "vision" ou "multi-modal" dans leur description.
- Vérifiez la fiche du modèle sur le site Web du fournisseur. Habituellement, il y a une icône indiquant que le modèle prend en charge l'entrée d'image.
Voici quelques fournisseurs et modèles à considérer :
| Fournisseur | Modèle économique | Prix Entrée/Sortie | Modèle performant | Prix Entrée/Sortie |
|---|---|---|---|---|
| OpenAI | gpt5 mini | 0,25 $ / 2 $ | gpt 5.1 | 1,25 $ / 10 $ |
| Anthropic | claude sonnet 4.5 | 3 $ / 15 $ | claude opus 4.5 | 5 $ / 25 $ |
| gemini 2.5 flash | 0,3 $ / 2,5 $ | gemini 3 flash | 0,5 $ / 3 $ | |
| Openrouter | nvidia/nemotron-nano-12b-v2-vl:free | 0 | grok 4 | 3 $ / 15 $ |
| Alibaba | qwen3 vl flash | 0,15 ¥ / 1,5 ¥ | qwen3 vl plus | 1 ¥ / 10 ¥ |
| Tencent | hunyuan turbos vision | 3 ¥ / 9 ¥ | hunyuan t1 vision | 3 ¥ / 9 ¥ |
| ByteDance | doubao seed 1.6 flash | 0,15 ¥ / 1,5 ¥ | doubao seed 1.6 vision | 0,8 ¥ / 8 ¥ |
- 1 USD ≈ 7,1 CNY
- Les prix sont indiqués par million de tokens.
Pour chaque requête effectuée sur WriteTex, vous consommez généralement entre 300 et 1000 tokens d'entrée et entre 10 et 100 tokens de sortie.
La plupart des fournisseurs de modèles proposent un niveau gratuit généreux. Vous pouvez généralement créer un compte gratuit et commencer à utiliser les modèles sans aucun frais.
Obtenir la configuration API
Pour une configuration API, vous avez besoin de trois composants :
- Point de terminaison API
- Clé API
- ID du modèle
L'URL de base se trouve généralement dans la documentation du fournisseur. L'obtention de la clé API et de l'ID du modèle est également assez simple :
- Créez un compte chez un fournisseur.
- Lisez la documentation du fournisseur.
- Créez un jeton API sur la plateforme du fournisseur.
- Choisissez votre modèle et obtenez l'ID du modèle.
OpenAI
- Créez un compte OpenAI.
- Lisez la documentation de l'API OpenAI.
- Créez un jeton sur la Plateforme OpenAI.
- Choisissez votre modèle, par exemple GPT 5.1 avec l'ID de modèle
gpt-5.1.
URL de base : https://api.openai.com/v1
Anthropic
- Créez un compte console Anthropic.
- Lisez la documentation de l'API Anthropic.
- Créez un jeton sur la Plateforme Anthropic.
- Choisissez votre modèle dans l'Aperçu des modèles, par exemple Claude Sonnet 4.5 avec l'ID de modèle
claude-sonnet-4-5.
URL de base : https://api.anthropic.com/v1
Google
- Créez un compte Google. Connectez-vous à Google AI Studio.
- Lisez la documentation de l'API Gemini.
- Créez un jeton sur Google AI Studio.
- Choisissez votre modèle, par exemple Gemini 2.5 Flash avec l'ID de modèle
gemini-2.5-flash.
URL de base : https://generativelanguage.googleapis.com/v1beta/openai
Vous pouvez également utiliser l'API Gemini sur Google Vertex AI.
Google propose Gemini 2.5 Flash gratuitement avec une limite quotidienne de 20 requêtes sur Google AI Studio.
Openrouter
Openrouter est une plateforme d'agrégation qui vous permet d'utiliser des modèles de plusieurs fournisseurs. Consultez la documentation Openrouter.
Il y a souvent des modèles gratuits sur la plateforme, comme
nvidia/nemotron-nano-12b-v2-vl:free, utilisables sans frais. URL de base :https://openrouter.ai/api/v1
Alibaba
- Créez un compte Aliyun sur Aliyun.
- Lisez la documentation de l'API Aliyun.
- Suivez ce guide pour créer une clé API sur API Key.
- Choisissez votre modèle dans le Marché des modèles. Par exemple, Qwen3 vl plus avec l'ID de modèle
qwen3-vl-plus.
URL de base : https://dashscope.aliyuncs.com/compatible-mode/v1
Pour les nouveaux utilisateurs enregistrés, vous obtenez un quota gratuit de 1M de tokens pour chaque modèle pendant les trois premiers mois.
Tencent
- Créez un compte Tencent Cloud.
- Lisez la documentation de l'API Tencent.
- Créez une clé API sur la Console Tencent Cloud.
- Choisissez votre modèle dans le Model Square, par exemple Hunyuan Turbos Vision avec l'ID de modèle
hunyuan-turbos-vision.
URL de base : https://api.hunyuan.cloud.tencent.com/v1
Pour les nouveaux utilisateurs enregistrés, vous obtenez un quota gratuit de 1M de tokens au total pour tous les modèles.
ByteDance
- Créez un compte Volc Engine.
- Lisez la documentation de l'API Volc Engine.
- Créez une clé API sur la Console Volc Engine.
- Choisissez votre modèle dans le Model Square, par exemple Doubao 1.6 Vision avec l'ID de modèle
doubao-seed-1-6-vision-250815.
URL de base : https://ark.cn-beijing.volces.com/api/v3
Pour les nouveaux utilisateurs enregistrés, vous obtenez un quota gratuit de 0,5M de tokens par modèle.
À propos de Deepseek
Les modèles fournis directement par Deepseek ne prennent pas en charge les entrées de vision. Les modèles open-source comme DeepSeek-OCR prennent en charge la reconnaissance des équations mathématiques, mais nécessitent un auto-hébergement ou la recherche d'un fournisseur distinct.
Tester votre API (si nécessaire)
Supposons maintenant que vous ayez obtenu la clé API et l'ID du modèle. Vous pouvez tester votre API à l'aide d'un outil comme CherryStudio. Téléchargez l'application Cherry Studio et utilisez vos paramètres API dans l'application pour tester votre API. Essayez d'insérer une image pour voir si le modèle prend en charge l'entrée de vision.
Si vous ne souhaitez pas télécharger l'application, vous pouvez également tester votre API en envoyant une requête simple. Voici un exemple de requête pour qwen3-vl-plus à l'aide de curl. Copiez et collez cette commande dans votre terminal ou CMD :
curl https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer sk-1234567890" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3-vl-plus",
"messages": [
{
"role": "user",
"content": [
{
"type": "text",
"text": "Bonjour"
}
]
}
]
}'Remplacez https://dashscope.aliyuncs.com/compatible-mode/v1 par votre propre URL de base, en gardant la partie /chat/completions identique.
Remplacez qwen3-vl-plus par votre propre ID de modèle.
Remplacez sk-1234567890 par votre propre clé API.
Réponse réussie :
{
"choices": [
{
"message": {
"content": "Bonjour ! Comment puis-je vous aider aujourd'hui ? 😊",
"reasoning_content": "",
"role": "assistant"
},
}
],
}Configurer les paramètres dans WriteTex
Avancé
Dans cette section, les auteurs supposent que le lecteur sait ce qu'il fait. L'hébergement d'un modèle personnalisé dépasse le cadre de ce guide. Il n'est pas recommandé aux débutants ou aux utilisateurs sans formation en informatique.
Auto-hébergement
ollama est une plateforme qui vous permet d'exécuter de grands modèles de langage sur votre propre machine. Elle fournit une API simple que vous pouvez utiliser pour exécuter des modèles. Vous pouvez vous référer à la documentation ollama pour plus d'informations. À titre d'exemple, Deepseek-OCR est un modèle que vous pouvez utiliser pour WriteTex.
vLLM est un moteur d'inférence haute performance pour les grands modèles de langage. Il prend en charge une variété de modèles et fournit une API compatible OpenAI. Vous pouvez vous référer à la documentation vLLM pour plus d'informations. Je recommande d'essayer HunyuanOCR et DeepSeek-OCR pour un OCR LaTeX local rapide et léger pour WriteTex.