Articles sur : 🏗️ Les fondamentaux

Bloc IA

1. Présentation




Le Bloc IA permet de construire un Prompt à l’aide d’un ou de plusieurs Blocs Enfants, ce Prompt permettra de générer un contenu dynamique lors de la réalisation de la Publication par l’**Utilisateur d'App**.

Les vidéos suivantes sont réalisées avec notre ancienne interface mais la logique à mettre en oeuvre reste la même. De nouvelles vidéos arriveront prochainement avec la nouvelle présentation des Apps.




Par défaut, le Bloc IA permet d’ajouter autant de Blocs Enfants que nécessaire comme un Bloc Groupe mais le contenu des Blocs Enfants constituera l’ensemble du Prompt.

Il est donc possible de le découper en plusieurs étages, de le rendre complexe, avec des variables et des portions entières masquées ou non selon les différentes règles conditionnelles.




2. Spécificités




Il est essentiel de garder en tête que l’ensemble du contenu visible dans le Bloc IA, une fois l’assignation des Attributs réalisée via l’Assistant / Wizard, constitue un Prompt.
Il convient donc d'éviter d'y insérer des images, il est nécessaire d’adapter les formulations pour rendre le Prompt le plus efficace possible.

Si vous avez besoin d’un prompt très long, adaptez le choix du modèle en conséquence pour qu’il puisse le prendre en charge.

Les modèles



Depuis les paramètres du Bloc IA vous pouvez également choisir le modèle à utiliser.



Sur Thinkeo, vous avez le choix entre de nombreux modèles différents, leurs capacités de raisonnement ou de prise en charge du contexte varient et il convient d’adapter son modèle à l’usage.

Voilà une courte présentation de chaque modèle disponible pour vous aider à y voir plus clair.


💡Les modèles présentent leur capacité de contexte en tokens. On estime qu’un mot en français fait en moyenne 1.5 tokens.

L’important à retenir :

Le contexte total est partagé entre l’input et l’output d’un modèle, autrement dit c’est le total de contenu donné en entrée dans le prompt et celui généré par la réponse en sortie.
Si les modèles peuvent ingérer beaucoup de contenu en entrée, leurs réponses sont limitées. Vous ne pourrez pas rédiger un document de 50 pages en un seul prompt.
Chaque entreprise proposant des modèles d’IA offre souvent deux alternatives, un modèle intelligent pour les tâches complexes et un autre plus rapide et moins couteux adapté aux tâches simples.


Anthropic


Claude 3.5 Sonnet : Modèle équilibré entre performance et efficacité, excellente capacité de raisonnement, la meilleure alternative à GPT-4o. Contexte total : 200 000 tokens. Longueur de réponse en sortie : jusqu'à 8192 tokens.

C’est notre modèle préféré chez Thinkeo.

Claude 3.5 Haiku : Version plus légère et rapide, modèle performant pour les demandes simples ou avancées. Un bon complément à Sonnet pour l’extraction d’informations, la rédaction ou l’analyse nécessitant un raisonnement moins complexe. Contexte total : 200 000 tokens. Longueur de réponse en sortie : jusqu'à 8192 tokens.

Google


Google propose deux modèles Gemini sur Thinkeo :
Gemini 1.5 Pro : Modèle avancé pour des tâches complexes. Contexte total : jusqu'à 2 millions de tokens. Longueur de réponse en sortie : jusqu'à 8192 tokens.

C’est le meilleur modèle si vous avez besoin d’analyser de longs documents complexes

Gemini 1.5 Flash : Version optimisée pour la rapidité, prend aussi en charge un contexte massif. Contexte total : jusqu'à 1 million de tokens. Longueur de réponse en sortie : jusqu'à 8192 tokens.

Mistral


Mistral Large 2 : Modèle équilibré entre performance et efficacité, l’alternative française à GPT-4o. Contexte total : 128 000 tokens. Longueur de réponse en sortie : jusqu'à 8192 tokens.

Mistral Nemo : Version plus légère et rapide, modèle performant pour les demandes simples ou avancées. Contexte total : 128 000 tokens. Longueur de réponse en sortie : jusqu'à 8192 tokens.

Perplexity


Sonnar Pro : Modèle avancé avec capacité de recherche Web intégrée. Adapté pour la recherche et alimenté un autre bloc IA. Contexte total : 128 000 tokens. Longueur de réponse en sortie : jusqu'à 8192 tokens.

Sonnar : Version plus légère et rapide de Sonnar, adaptée pour des tâches simples à moyennement complexes avec recherche Web. Adapté pour la recherche et alimenté un autre bloc IA. Contexte total : 128 000 tokens. Longueur de réponse en sortie : jusqu'à 4 096 tokens.

Ces modèles sont particulièrement utiles pour les tâches nécessitant des informations à jour provenant du Web



OpenAI


GPT-4o : La version la plus avancée des modèles GPT-4, équilibrée entre performance et efficacité. Contexte total : 128 000 tokens. Longueur de réponse en sortie : jusqu'à 16 384 tokens.

C’est le modèle de référence de l’IA, le plus polyvalent.

GPT-4o Mini : Version plus légère de GPT-4o, son alternative rapide pour les tâches simple. Contexte total : 128 000 tokens. Longueur de réponse en sortie : jusqu'à 16 384 tokens.

GPT-4 Turbo : Version améliorée de GPT-4. Contexte total : 128 000 tokens. Longueur de réponse en sortie : jusqu'à 4 096 tokens.
GPT-4 : Modèle avancé avec une excellente compréhension du contexte. Contexte total : 8 192 tokens. Longueur de réponse en sortie : jusqu'à 4 096 tokens.
GPT-3.5 Turbo : Modèle rapide pour des tâches simples. Contexte total : 16 385 tokens. Longueur de réponse en sortie : jusqu'à 4 096 tokens.

Les paramètres



Les paramètres vont vous permettre d’ajuster plus précisément le comportement attendu par l’IA, ce qui influera sur les réponses générées.

💡Les paramètres peuvent être définis au niveau de l’App pour s’appliquer à tous les blocs IA de l’App. Vous pouvez ainsi mettre en place une configuration globale pour vos blocs IA sans avoir à les changer un à un.


Vous pouvez toujours modifier manuellement le paramètre d’un bloc pour lui appliquer un paramétrage particulier. Le paramétrage sur le bloc est toujours prioritaire sur le paramétrage au niveau de l’App.

Les paramètres utilisables sont :

Température (Temperature) : Ce paramètre contrôle le degré de variabilité dans les réponses du modèle. Une température basse rend les réponses plus déterministes et conservatrices, tandis qu'une température élevée augmente la créativité et la diversité des réponses, mais peut les rendre moins cohérentes.
Top P (ou Nucleus Sampling) : Ce paramètre limite les choix de tokens (mots ou parties de mots) en fonction de leur probabilité cumulée. Si Top P est bas, le modèle choisira parmi les tokens les plus probables. Si Top P est élevé, cela augmente la diversité des réponses possibles en incluant des tokens moins probables.
Pénalité de Fréquence (Frequency Penalty) : Ce paramètre pénalise les tokens qui apparaissent fréquemment dans la réponse générée. Une pénalité de fréquence plus élevée réduit la répétition des mots, rendant la réponse plus variée.
Pénalité de Présence (Presence Penalty) : Ce paramètre pénalise les tokens qui apparaissent déjà dans la réponse générée, encourageant ainsi le modèle à introduire de nouveaux concepts. Une pénalité de présence plus élevée augmente la diversité en dissuadant le modèle de réutiliser les mêmes mots.

Les valeurs possibles changeront selon le modèle sélectionné, la Température est ajustée de façon dynamique lorsque vous basculez d’un modèle à un autre, pensez à vérifier qu’elles correspondent à vos attentes.


💡 Il est déconseillé de modifier la Température et le Top P en même temps, privilégiez l’un ou l’autre en combinaison avec un ou deux paramètres de pénalité. Nous vous conseillons de jouer essentiellement avec la Température, et éventuellement avec la pénalité de fréquence.


Les Prompts systèmes



Vous pouvez aussi ajouter un Prompt système complémentaire selon votre méthode de Prompting. Un Prompt système peut être utilisé pour préciser un rôle ou des instructions spécifiques qui faciliteront l'interprétation de l'IA ou aiguilleront sa compréhension de l'ensemble du Prompt.





⚠️ Un bloc IA doit être exécuté depuis une Étape de l'Assistant / Wizard. Il convient d'assigner une Étape bloquante avant la fin de l'Assistant pour s'assurer que tous les blocs ont bien été exécutés.



Le Prompting est un sujet à part entière sur lequel il convient d’itérer pour arriver au résultat souhaité.

Soyez clair, précis et structuré sur vos Prompts.

Mis à jour le : 30/01/2025

Cet article a-t-il répondu à vos questions ?

Partagez vos commentaires

Annuler

Merci !