Articles sur : Génération IA
Cet article est aussi disponible en :

🖌️ Génération IA créateur

🖌️ Génération IA — Côté Créateur


Celestory permet d'allier la puissance du nocode (création d'applications sans écrire de code) et du vibe coding (décrire en français ce que l'on veut créer et laisser l'IA générer le code) pour tester, comparer et itérer rapidement sur les meilleurs modèles d'Intelligence Artificielle du marché. Vous pouvez intégrer et évaluer une large gamme de modèles — y compris des modèles souverains (développés en Europe ou en open source, indépendants des géants américains) comme ceux de Mistral ou de Flux — directement depuis l'interface Cloud, puis les télécharger localement une fois validés pour une exécution en production.



Le menu Génération IA


Le menu Génération IA est accessible depuis l'éditeur et se structure en 5 onglets :


Onglet

Description

📝 Textes

Chat conversationnel avec des LLM (Large Language Models : modèles d'IA capables de comprendre et générer du texte) pour la génération de texte

🖼️ Images

Génération et édition d'images par prompt

🎬 Vidéos

Création de vidéos à partir de texte, images ou vidéos existantes

🔊 Audio

Synthèse vocale, musique, effets sonores et dialogues

📋 Générations précédentes

Historique complet de toutes vos générations passées


En haut de chaque onglet, un compteur de quota affiche votre consommation de crédits IA en temps réel (ex : 45 / 200 générations), avec un bouton pour ajouter des crédits IA.



📝 Onglet Textes


L'onglet Textes offre un chat conversationnel intégré pour interagir directement avec des modèles de langage (LLM — Large Language Models : programmes d'IA entraînés à comprendre et générer du texte, comme des assistants virtuels très avancés). C'est le cœur de la génération IA textuelle dans Celestory : vous pouvez co-écrire du contenu, générer du code, rédiger des scripts narratifs, ou encore interroger vos données de projet de façon naturelle.


Comment ça marche ?


Vous saisissez un message dans le champ de chat. Le modèle reçoit :

  1. L'historique de vos échanges précédents (pour maintenir le contexte)
  2. Éventuellement des variables textuelles de votre projet attachées au message
  3. Votre prompt actuel (l'instruction ou la question que vous envoyez à l'IA)


Il génère une réponse qui s'affiche progressivement dans le chat, rendue en Markdown (format de mise en forme de texte léger : # Titre, **gras**, - liste → s'affiche proprement comme du texte enrichi) en temps réel.


Interface de conversation

  • Panneau gauche : Liste de vos conversations précédentes nommées automatiquement. Vous pouvez reprendre une conversation existante ou en créer une nouvelle.
  • Panneau droit : Zone de chat avec sélection du modèle, compteur de tokens, historique des messages et champ de saisie.


Fonctionnalités clés

  • Sélection du modèle : Choisissez parmi les modèles disponibles, regroupés par fournisseur.
  • Compteur de tokens : L'interface affiche en temps réel le nombre de tokens (unités de texte que l'IA traite — un token ≈ ¾ de mot en français ; « bonjour » = 1 token, une phrase de 10 mots ≈ 13 tokens) utilisés par l'historique de conversation par rapport à la fenêtre de contexte (quantité maximale de texte que le modèle peut « retenir » en une seule conversation) du modèle sélectionné (ex : 12,530 / 256,000 tokens).
  • Estimation de l'input : Avant d'envoyer un message, le nombre de tokens supplémentaires que votre saisie va consommer est affiché (ex : + 842 tokens).
  • Attachement de variables textuelles : Vous pouvez attacher des variables textuelles (des contenus texte stockés dans votre projet Celestory, comme un personnage, une règle de jeu ou une charte graphique) de votre projet au prompt. Chaque variable attachée affiche son poids en tokens. Cela permet d'injecter dynamiquement du contenu de votre projet dans la requête IA.
  • Aperçu Markdown : Les réponses de l'IA sont rendues au format Markdown (format de mise en forme textuel : les # titres, **mots en gras** et - listes s'affichent comme dans un document Word) en temps réel, idéal pour valider visuellement des documents structurés.
  • Gestion de l'historique : Suppression de messages individuels, rechargement de conversations sauvegardées.


Cas d'usages


Cas d'usage

Description

Vibe Coding (Bloc HTML5)

Attachez votre charte graphique HTML/CSS comme variable, décrivez l'interface souhaitée, puis copiez le code dans un bloc HTML5 de votre graphe. Itérez en conversation jusqu'au résultat.

Génération de scripts narratifs

Créez des dialogues de PNJ (Personnages Non-Joueurs : les personnages contrôlés par le jeu et non par le joueur), des descriptions de scènes ou des textes de narration directement depuis le chat, puis sauvegardez-les en variables textuelles.

Documentation MD

Générez des documents Markdown structurés (guides, fiches, règles de jeu) en attachant votre méthodologie comme variable. L'aperçu MD valide instantanément le rendu.

Analyse de données projet

Attachez une variable contenant vos données JSON ou textuelles (ex : liste de niveaux, statistiques), posez des questions à l'IA pour extraire des insights.

Traduction de contenu

Passez vos textes de jeu (variables) au modèle pour les traduire en plusieurs langues, conversation par conversation.

Comparaison de modèles

Posez la même question à Mistral, Gemini et GPT-5 Mini dans trois conversations séparées pour comparer les réponses et choisir le modèle le plus adapté.


Modèles de texte disponibles


Fournisseur

Modèle

Fenêtre de contexte (mémoire max de la conversation)

Mistral 🇫🇷

mistral-large-2512

256 000 tokens

Mistral 🇫🇷

ministral-3b-2512

256 000 tokens

Google

gemini-3-flash-preview

1 000 000 tokens

OpenAI

gpt-5-mini

400 000 tokens

Anthropic

claude-haiku-4.5

200 000 tokens

Meta

llama-4-maverick

1 000 000 tokens

xAI

grok-4.1-fast

2 000 000 tokens


Les modèles Mistral (modèles souverains français) et Llama (Meta, open source) peuvent être téléchargés après validation pour une exécution locale.



🖼️ Onglet Images


L'onglet Images permet la génération et l'édition d'images par description textuelle, avec deux modes de fonctionnement.


Mode Text-to-Image (Texte vers Image)


Comment ça marche ? Vous décrivez l'image que vous souhaitez créer dans le champ de prompt. Le modèle génère une image entièrement nouvelle à partir de zéro, sans image source. Plus le prompt est précis (style, couleurs, composition, ambiance), plus le résultat est fidèle à votre vision.


Modèle

Ratios/Tailles

Fonctionnalités

Nano Banana

1:1, 16:9, 9:16, 4:3, 3:4, 3:2, 2:3, 4:5, 5:4, 21:9

Jusqu'à 4 images, formats PNG/JPG/WebP

Flux 2 Klein 4B

square, square_hd, portrait_3_4, landscape_4_3...

Formats PNG/JPG/WebP

GPT Image 1.5

auto, 1024×1024, 1024×1536, 1536×1024

Fond transparent/opaque, qualité low/medium/high, fidélité d'entrée low/high, jusqu'à 4 images


Cas d'usages :

  • 🎨 Assets de jeu : Générer des fonds de scène, des personnages, des objets ou des icônes d'interface adaptés à l'univers de votre projet, sans avoir besoin d'un illustrateur.
  • 🖼️ Variants rapides : Produire 4 versions d'un même asset en un clic pour choisir le meilleur résultat avant intégration.
  • 📖 Illustrations narratives : Créer des visuels pour ponctuer des moments clés d'un récit interactif ou d'un module de formation.
  • 🎭 Moodboards / Prototypage visuel : Tester différentes directions artistiques rapidement avant de valider la direction graphique d'un projet.
  • 🏷️ Images avec fond transparent (GPT Image 1.5) : Générer des éléments d'interface (sprites, stickers, badges) à fond transparent, directement intégrables dans Celestory.



Mode Image-to-Image (Édition d'image)


Comment ça marche ? Vous fournissez une ou plusieurs images de référence et un prompt décrivant les modifications à apporter. Le modèle s'appuie sur vos images existantes pour générer un résultat qui en conserve la structure, le style ou le contenu, tout en appliquant vos instructions textuelles.


Modèle

Fonctionnalités additionnelles

Nano Banana / edit

Images de référence multiples, mêmes ratios que text-to-image

Flux 2 Klein 4B / edit

Images de référence multiples

GPT Image 1.5 / edit

Images de référence multiples, masque optionnel (inpainting : retouche ciblée d'une zone de l'image), fond transparent, qualité ajustable


Cas d'usages :

  • 🖌️ Reskin d'assets : Prendre un personnage existant et lui appliquer un nouveau style (ex : transformer un héros en version hivernale ou en version pixel art) sans repartir de zéro.
  • ✏️ Inpainting ciblé (retoucher une zone précise d'une image sans toucher au reste) (GPT Image 1.5 uniquement) : Peindre un masque (une zone grise/noire dessinée sur l'image pour indiquer à l'IA ce qu'elle doit modifier) sur une zone précise de l'image (ex : le visage d'un personnage, le fond d'une scène) et demander à l'IA de régénérer uniquement cette zone selon un prompt, laissant le reste de l'image intact.
  • 🧩 Fusion de styles : Fournir plusieurs images sources de références (ex : une illustration avec un style graphique + une photo) pour créer un résultat qui combine les deux esthétiques.
  • 🔄 Cohérence de série : Générer plusieurs variantes d'un même personnage (poses, expressions, tenues différentes) en gardant les images de référence du personnage pour maintenir la cohérence visuelle.


Paramètres communs

  • Prompt (l'instruction textuelle que vous donnez à l'IA) : Description de l'image souhaitée
  • Ratio / Taille : Format de sortie de l'image (ex : 16:9 pour paysage, 9:16 pour portrait mobile, 1:1 pour carré)
  • Nombre d'images : Génération par lot (jusqu'à 4)
  • Format de sortie : PNG (qualité max, fond transparent possible), JPG (léger, bon pour les photos) ou WebP (léger, supporte la transparence)
  • Images de référence : En mode édition, possibilité de fournir plusieurs images sources dont l'IA s'inspirera
  • Image masque : Zone dessinée sur l'image pour délimiter la zone à modifier (inpainting)
  • Mode avancé : Saisie libre du nom du modèle et des paramètres JSON (format de données structurées) pour un contrôle total



🎬 Onglet Vidéos


L'onglet Vidéos propose 6 modes de génération pour couvrir tous les cas de création vidéo IA, du prototype rapide à la production de contenu enrichi.



Text-to-Video (Texte vers Vidéo)


Comment ça marche ? Vous décrivez une scène dans un prompt (l'instruction texte que vous donnez à l'IA : action, ambiance, style, mouvement de caméra…) et le modèle génère une vidéo entièrement synthétique à partir de zéro. Le prompt négatif (ce que vous ne voulez PAS voir dans la génération) permet d'exclure des éléments indésirables (ex : « pas de texte, pas de flou »).


Modèle

Durées

Options

LTX-2 Fast

6 à 20 secondes

Audio optionnel, 1080p/1440p/2160p, 25/50 FPS (images par seconde : 25 = cinéma, 50 = vidéo fluide), prompt négatif

Veo 3.1 Fast (Google)

4s, 6s, 8s

Audio optionnel, 9:16 / 16:9, 720p/1080p, prompt négatif

Kling Video v2.6 Pro

5s, 10s

Audio optionnel, 16:9 / 9:16 / 1:1, prompt négatif

Wan v2.6 🇨🇳

5s, 10s, 15s

Audio de référence, 5 ratios, 720p/1080p, prompt négatif


Cas d'usages :

  • 🎬 Cinématiques de jeu : Générer des séquences d'introduction ou de transition pour des jeux narratifs, sans ressources vidéo préexistantes.
  • 📱 Contenu vertical (9:16) : Créer des micro-animations pour des expériences mobiles ou des formats courts (social media, publicités).
  • 🏫 Supports de formation : Illustrer dynamiquement des concepts abstraits (ex : une vidéo sur le cycle de l'eau pour un module pédagogique).
  • 🌍 Prototypage d'ambiances : Tester rapidement différentes atmosphères visuelles (style, couleurs, cadence) avant de valider la direction d'un projet.



Image-to-Video (Image vers Vidéo)


Comment ça marche ? Vous fournissez une image fixe et décrivez le mouvement ou l'évolution que vous souhaitez lui donner. Le modèle "anime" votre image en respectant sa composition et son contenu. C'est idéal pour donner vie à des assets graphiques existants.


Modèle

Durées

Options

LTX-2 Fast

6 à 20 secondes

Audio optionnel, image de référence, 25/50 FPS

Veo 3.1 Fast

4s, 6s, 8s

Audio optionnel, image de réf., prompt négatif

Wan v2.6

5s, 10s, 15s

Image de référence, 720p/1080p


Cas d'usages :

  • Animation d'illustrations : Donner vie à un personnage de jeu illustré (ex : faire battre les ailes d'un dragon, faire flotter les cheveux d'un héros dans le vent).
  • 🏞️ Fonds animés : Transformer un fond de scène statique (forêt, ville futuriste) en fond vidéo en mouvement pour enrichir l'immersion.
  • 📸 Portraits animés : Ajouter une légère animation à un portrait de personnage pour des écrans de dialogue ou des menus.
  • 🖼️ Transition entre scènes : Partir d'un screenshot de fin de scène pour générer une transition fluide vers la scène suivante.



Start & End Frame (Image début et fin)


Comment ça marche ? Vous fournissez deux images : la première frame (image fixe, équivalent d'une « photo » d'une vidéo) (début) et la dernière frame (fin) de la vidéo. Le modèle génère automatiquement toutes les frames intermédiaires pour créer une transition fluide entre les deux. Vous contrôlez ainsi le point de départ et d'arrivée, et laissez l'IA inventer le chemin.


Modèle

Options

Veo 3.1 Fast

Image début + fin, 4s/6s/8s, audio optionnel, 720p/1080p

Kling Video O1 Standard

Image début + fin, 5s/10s

Kling Video O1

Image début + fin, 5s/10s

Wan FLF2V

Image début + fin, 5s, 480p/720p, prompt négatif


Cas d'usages :

  • 🔄 Morphing de personnages : Montrer la transformation d'un personnage (ex : une grenouille qui devient un prince) en définissant l'état initial et l'état final.
  • 🚀 Transitions de storyboard : En phase de pré-production, générer le contenu intermédiaire entre deux plans clés d'un storyboard.
  • 🗺️ Zooms sur cartes : Partir d'une vue globale (frame 1) et arriver sur un point précis de la carte (frame 2) avec un zoom généré automatiquement.
  • Effets de révélation : Passer d'un écran vide (début) à une scène pleine (fin) pour des intros dramatiques.



Image + Audio vers Vidéo (Avatar IA)


Comment ça marche ? Vous fournissez une image de portrait (photo ou illustration d'un visage) et un fichier audio (voix, dialogue, chanson). Le modèle synchronise les mouvements des lèvres et les expressions du visage dans l'image avec l'audio pour créer une vidéo d'un personnage qui parle ou chante de façon réaliste.


Modèle

Usage

Kling Video AI Avatar v2

Image portrait + audio → vidéo d'avatar parlant

ByteDance OmniHuman v1.5

Image + audio, 720p/1080p


Cas d'usages :

  • 🎙️ PNJ vidéo : Créer des personnages non-joueurs qui s'adressent directement au joueur de façon ultra-immersive, à partir d'une simple illustration + d'un fichier audio TTS généré dans l'onglet Audio.
  • 📺 Présentateurs IA : Générer un avatar présentateur pour des modules de formation ou des vidéos d'onboarding sans avoir recours à une vraie caméra.
  • 🌍 Localisation vidéo : Utiliser un audio traduit pour faire "parler" le même avatar dans plusieurs langues, avec synchronisation labiale automatique.
  • 🎭 Doublage d'assets existants : Prendre une illustration de personnage existante et la faire "parler" en synchronisant un audio de dialogue enregistré ou généré par TTS.



Video-to-Video (Extension / Retake)


Comment ça marche ? Vous partez d'une vidéo existante que vous souhaitez modifier ou prolonger. Le modèle analyse votre vidéo source et génère soit une continuation naturelle (extension), soit une version alternative à partir d'un point de départ défini dans la vidéo (retake).


Modèle

Usage

Veo 3.1 Fast / extend

Extension de vidéo existante de +7 secondes

LTX-2 / retake

Re-génération à partir d'un point de départ dans la vidéo (startTime)


Cas d'usages :

  • Extension de cinématiques : Allonger une vidéo trop courte en prolongeant naturellement l'action ou l'animation déjà en cours.
  • ✏️ Correction de fins de vidéo : Si la dernière partie d'une vidéo ne convient pas, définir un point de coupe et régénérer la fin de façon alternative.
  • 🔁 Création de loops : Générer une continuation d'une vidéo qui peut être chainée avec le début pour créer des animations en boucle seamless.



Motion Control


Comment ça marche ? Vous combinez une image de personnage et une vidéo de référence de mouvement (vidéo d'une personne réelle en train de bouger). Le modèle applique les mouvements de la vidéo de référence à votre personnage issu de l'image, créant ainsi une vidéo animée où votre personnage reproduit exactement les gestes capturés.


Modèle

Options

Kling Video v2.6 / motion-control

Image + vidéo de mouvement, orientation du personnage (image ou vidéo), durées 5s/10s


Cas d'usages :

  • 💃 Animations de personnages : Faire danser, courir ou gestuer un personnage de jeu en appliquant des captures de mouvement réelles.
  • 🥋 Scènes d'action : Utiliser des vidéos de référence d'arts martiaux ou de sports pour animer des combats de personnages.
  • 🎓 Personnages pédagogiques : Faire effectuer des gestes didactiques (pointer, montrer, saluer) à un avatar de formateur dans un module e-learning.



Paramètres communs à la vidéo

  • Prompt : Description textuelle de la vidéo
  • Prompt négatif : Éléments à exclure de la génération
  • Durée : Variable selon le modèle
  • Ratio d'aspect : 16:9, 9:16, 4:3, 1:1...
  • Résolution : 480p à 2160p selon le modèle
  • FPS : 25 ou 50 (modèles LTX-2)
  • Audio : Optionnel, obligatoire ou par fichier de référence
  • Image(s) de départ / fin : Pour guider la génération vidéo
  • Mode avancé : Paramètres JSON personnalisés



🔊 Onglet Audio


L'onglet Audio propose 4 modes de génération sonore basés sur ElevenLabs pour couvrir tous les besoins : voix, ambiance musicale, effets et dialogues.



Synthèse vocale (Text-to-Speech)


Comment ça marche ? Vous saisissez un texte dans le prompt et sélectionnez une voix parmi les 20 disponibles. Le modèle génère un fichier audio de la voix choisie lisant le texte, avec un contrôle fin sur la stabilité, la ressemblance et la vitesse d'élocution.


Modèle

Paramètres

ElevenLabs TTS Turbo v2.5

20 voix (Aria, Roger, Sarah, Laura, Charlie, George, Callum, River, Liam, Charlotte, Alice, Matilda, Will, Jessica, Eric, Chris, Brian, Daniel, Lily, Bill), stabilité, boost de similarité, vitesse (0.7–1.2×), code langue


Cas d'usages :

  • 🎙️ Narration de scènes : Générer la voix off qui accompagne les transitions ou les moments clés d'un jeu narratif.
  • 💬 Dialogues de PNJ : Produire les lignes de dialogue audio de chaque personnage non-joueur, avec une voix différente par personnage.
  • 📚 Accessibilité : Générer des versions audio de textes à lire pour rendre une formation ou une expérience accessible aux personnes malvoyantes.
  • 🌍 Doublage multilingue : Coupler avec la génération de texte traduit pour produire des audios de PNJ dans plusieurs langues avec la même voix.



Musique


Comment ça marche ? Vous décrivez en texte le style, l'ambiance et l'émotion de la musique que vous souhaitez (ex : « musique d'action épique pour une scène de combat, orchestrale, tensions crescendo »). Le modèle génère une piste musicale originale correspondant à votre description.


Modèle

Paramètres

ElevenLabs Music

Prompt textuel décrivant la musique souhaitée


Cas d'usages :

  • 🎮 Bandes-son de jeu : Créer des musiques d'ambiance uniques pour chaque zone, scène ou état émotionnel du joueur.
  • 📖 Musique narrative : Accompagner des séquences de lecture ou de narration avec une musique de fond adaptée au ton de l'histoire.
  • 🏋️ Ambiance de formation : Générer une musique de fond légère et non distrayante pour des modules de e-learning.
  • 🎯 Prototypage audio : Tester rapidement plusieurs directions musicales pour un projet avant de commander une composition définitive.



Effets sonores


Comment ça marche ? Vous décrivez l'effet sonore souhaité en texte (ex : « bruit de tonnerre lointain qui se rapproche », « clic d'un bouton mécanique »). Vous contrôlez la durée (de 0.5 à 22 secondes) et l'influence du prompt (de 0 = très libre à 1 = très fidèle). L'option boucle permet de créer des effets en loop seamless.


Modèle

Paramètres

ElevenLabs Sound Effects v2

Durée (0.5–22 secondes), influence du prompt (0–1), boucle activable


Cas d'usages :

  • 💥 Effets d'interaction : Générer des sons de feedback (clic de bouton, validation, erreur, alerte) sur mesure pour les interfaces de votre expérience.
  • 🌊 Ambiances sonores en loop : Créer des fonds sonores (pluie, forêt, foule, mer) à activer en boucle pour immerger le joueur dans un environnement.
  • ⚔️ Effets d'action : Coups, explosions, magie, portes qui grincent — générer rapidement tous les sons contextuels d'une scène de jeu.
  • 🔔 Sons de notification : Produire des sons d'alerte, de succès ou de victoire personnalisés pour les moments de récompense du joueur.



Dialogue multi-voix


Comment ça marche ? Vous utilisez un éditeur Rich Text spécialisé pour composer une conversation entre plusieurs personnages. Chaque segment de texte peut être assigné à une voix différente parmi les 20 disponibles. Le modèle génère un fichier audio continu qui enchaîne toutes les répliques avec les voix correspondantes, reproduisant fidèlement l'interaction.


Modèle

Paramètres

ElevenLabs Text-to-Dialogue v3

Éditeur riche multi-voix, 20 voix assignables par réplique, stabilité, boost de locuteur, code langue


Cas d'usages :

  • 🗣️ Scènes de dialogue prêtes à l'emploi : Générer une conversation complète entre deux PNJ sans avoir à éditer des fichiers audio séparément — le résultat est un seul fichier audio enchainé.
  • 🎭 Cutscenes audio : Produire des séquences audio dramatiques avec plusieurs personnages pour des jeux à fort narratif, sans acteurs de doublage réels.
  • 📻 Podcasts / Microlearning : Créer des dialogues pédagogiques entre un formateur et un apprenant fictifs pour animer des modules de formation de façon engageante.
  • 🌍 Dialogues multilingues : Avec le paramètre code langue, forcer chaque voix à parler dans la langue cible pour des productions localisées.



📋 Onglet Générations Précédentes


Cet onglet donne accès à l'historique complet de toutes vos générations IA (textes, images, vidéos, sons). Vous pouvez :

  • Consulter les résultats passés
  • Filtrer par type (texte, image, vidéo, audio) et par source (éditeur ou en jeu)
  • Paginer l'historique pour naviguer dans les générations plus anciennes
  • Retrouver et réutiliser des outputs déjà générés



💡 Bonnes Pratiques : Prompts de Compétence et Monitoring


Contraindre le modèle avec des Prompts de Compétence


Pour obtenir les meilleurs résultats, il est essentiel de contraindre le modèle IA en lui fournissant des instructions précises et des bonnes pratiques. On appelle cela un prompt de compétence : un document de référence (charte, méthodologie, règles métier) que vous attachez à vos requêtes pour guider la génération.


Exemples concrets :


  • Vibe Coding (Bloc HTML5) : Lorsque vous utilisez la génération IA pour créer des interfaces via le bloc HTML5, attachez votre charte graphique en HTML/CSS au prompt. Le modèle respectera alors vos couleurs, typographies et composants.
  • Génération de documents Markdown : Lorsque vous créez des documents textuels via l'aperçu MD du menu Textes, attachez une méthodologie documentaire en Markdown (structure type, conventions de titrage, glossaire) pour que l'IA produise des documents conformes à vos standards.


Grâce au système de variables textuelles attachables au chat, vous pouvez stocker vos chartes et méthodologies comme variables de projet et les injecter en un clic dans chaque conversation IA.


Cas d'usage majeur : Le Vibe Coding avec le Bloc HTML5


L'un des cas d'usage les plus puissants de Celestory est le vibe coding :

  1. Ouvrez le chat IA dans l'onglet Textes.
  2. Attachez votre charte graphique HTML/CSS en variable textuelle.
  3. Décrivez en langage naturel l'interface, l'animation ou le composant que vous souhaitez.
  4. Copiez le code généré dans un bloc HTML5 de votre graphe.
  5. Visualisez instantanément le résultat dans le moteur nocode.
  6. Itérez par conversation IA jusqu'au résultat souhaité — sans écrire une seule ligne de code manuellement.


Monitoring des tokens par modèle


Celestory affiche le compteur de tokens par modèle en temps réel :

  • Tokens d'historique : combien de tokens votre conversation a déjà consommés vs. la fenêtre de contexte du modèle.
  • Tokens d'input : combien de tokens votre prochain message va ajouter (y compris les variables attachées).
  • Quota de génération : nombre total de générations utilisées sur votre quota mensuel.


Surveillez ces métriques pour :

  • Optimiser vos prompts et réduire la consommation.
  • Choisir le modèle adapté au rapport qualité/coût de votre cas d'usage.
  • Anticiper les dépassements de quota avant un lancement en production.


Mode avancé


Pour chaque type de génération (image, vidéo, audio), un mode avancé permet de saisir manuellement :

  • Le nom exact du modèle (pour accéder à des modèles non listés).
  • Les paramètres au format JSON pour un contrôle total sur la requête envoyée à l'API.


Mis à jour le : 04/03/2026

Cet article a-t-il répondu à vos questions ?

Partagez vos commentaires

Annuler

Merci !