Alors que l’utilisation de l’IA générative explose, les entreprises doivent accélérer l’adoption de cette technologie : pour pouvoir l’exploiter pleinement, il est nécessaire qu’elles développent des solutions exploitant leurs propres données. Au cœur de ces solutions, se trouve le LLM, ou Large Language Model - moteur de cette technologie, c’est le modèle que l’on entraîne pour produire par exemple les réponses d’un chatbot.
Le marché propose deux solutions phares : les LLM Open Source, mis à disposition gratuitement, et les LLM propriétaires, développés à usage commercial. Quel modèle choisir ? Quels sont les avantages de chacun selon les cas d’usage ?
Dans quelle mesure le choix du LLM est une décision cruciale pour développer une solution ou un produit d’IA Générative ?
L’IA Générative a une particularité technologique : elle est généralement mise en œuvre par le biais d’algorithmes (les modèles LLMs) pré-entrainés. Le modèle d’une IA classique est entraîné sur ses propres données et cas d’usages pour ajuster son paramétrage. Mais dans le cas des LLMs, le modèle est si grand et puissant qu’il est souvent trop coûteux de l’entrainer soi-même.
Lorsque l'on recourt à un modèle pré-entraîné, le comportement et la performance de ce dernier sont influencés par sa taille et ses caractéristiques, mais également par les données sur lesquelles il a été entraîné. C'est pourquoi il est possible d'obtenir des modèles conçus pour effectuer des tâches spécifiques ou comprendre certaines langues.
L'utilisation d'un modèle pré-entraîné requiert donc une étape de sélection rigoureuse, puisqu’il sera utilisé tel quel - ou presque.
Quelle est l'offre disponible en matière de LLMs ? Selon quels critères le choix doit-il être fait ?
L’offre LLM peut être séparée en deux grandes catégories, même si elles ont tendance à s’hybrider :
Open Source : elle est composée de modèles LLMs publics publiés par tout type d’acteurs - des start-up comme Mistral aux grands acteurs comme Google ou Meta. Ces modèles Open Source sont téléchargeables gratuitement et déployés sur les infrastructures cloud de l’entreprise, afin d’être utilisés sans abonnement ou paiement au token. Les seuls coûts sont ceux de fonctionnement des modèles (consommation cloud).
Propriétaire : elle est composée de LLMs développés par des sociétés facturant leur utilisation à l’usage (nombre et taille de requêtes effectuées, type de modèle utilisé). Pour utiliser ces LLMs, il est nécessaire de contractualiser un service avec un éditeur mettant à disposition les modèles sous forme d’API qui peuvent être interrogés. Avec cette formule, le modèle est hébergé sur les infrastructures de la société éditrice du service, ce qui suppose qu’elle voit passer, par les requêtes adressées à ses LLMs, les données du client.
Ces offres ont tendance à s’hybrider car de plus en plus de sociétés tendent à avoir à la fois une offre Open Source publique, qui permet de mettre en avant leur expertise et de se confronter à leurs pairs, et une offre payante, en général plus performante, qui permet de générer des revenus et d’assurer un équilibre économique.
Quelles sont les conditions à prendre en compte pour faire son choix entre un LLM propriétaire ou Open Source ?
Six critères peuvent être utilisés :
Le coût : si l'on possède les compétences et ressources techniques pour déployer des LLM Open Source, leur utilisation sera moins coûteuse que celle des LLM propriétaires. Cependant, il convient de nuancer cet avantage, car cette tendance peut s'inverser pendant la phase de développement. En effet, des ressources seront nécessaires pour le déploiement et la maintenance de ces modèles. La solution adaptée sera donc à choisir selon les usages attendus, comme présenté sur le graphique ci-dessous.
La performance : sur ce critère, l’avantage va plutôt aux solutions éditeurs en raison de la taille et du volume de données d’entrainement des LLMs propriétaires. Les sociétés ayant opté pour un business model au moins en partie commercial réservent souvent les LLMs les plus performants pour les services payants. Toutefois, si les modèles payants s’avèrent plus performants dans les benchmarks, les modèles Open Source, plus petits mais entrainés sur des tâches spécifiques, peuvent rivaliser pour l’essentiel sur des tâches usuelles (résumé de texte, extraction d’informations…) ;
La robustesse du service : l’avantage va également aux solutions des éditeurs. Disponibles sous forme de services disposant de SLA (Service Level Agreement), les LLMs exposés par des acteurs du cloud proposent de très hauts niveaux de disponibilité ;
La confidentialité des données : ce point fait pencher la balance vers l’Open Source. Il n’existe pas de meilleure garantie de sécurité que la capacité de déployer son LLM sur ses propres infrastructures, qu’elles soient sur un cloud public ou on premise. Si les services providers s’engagent en théorie à assurer la confidentialité des données, de nombreux services LLMs ne sont pas encore disponibles dans toutes les régions des clouds providers – ce qui nécessite de solliciter des services hébergés à l’étranger ;
L’indépendance vis-à-vis d’un éditeur : encore un point en faveur de l’Open Source. Utiliser un modèle Open Source ne lie pas l’entreprise à un éditeur qui pourrait décider du jour au lendemain de changer le prix de son offre LLM ou bien d’arrêter la mise à disposition de tel ou tel modèle. Déployer ses propres LLMs Open Source permet donc de conserver une plus grande autonomie vis-à-vis de l’éditeur ;
L’administration : l’utilisation d'un LLM proposé par un éditeur cloud offre souvent un service managé, comprenant des options avancées d'administration comme la surveillance des coûts, le paramétrage technique ou la mise en place de garde-fous visant à prévenir les utilisations non-éthiques qui pourraient compromettre la responsabilité de l'entreprise.
Les solutions éditeurs offrent ainsi l'accès à des LLM performants, robustes et dotés de fonctionnalités d'administration avancées. Cependant, l'utilisation de ces modèles peut être coûteuse et engendrer une dépendance à l'égard de l'éditeur, ce que certaines entreprises souhaitent éviter – notamment lorsqu’elles souhaitent déployer les technologies d’IA générative sur des cas d’usage impliquant des données sensibles.
De leur côté, les solutions Open Source permettent d’accéder à des modèles LLMs en ne supportant que les coûts de déploiement et maintenance, tout en conservant une maitrise des données qu’ils processent et ce, en autonomie vis-à-vis des éditeurs - à condition de pouvoir assurer la robustesse du service déployé et l’administration des modèles et de compenser la performance qui peut s’avérer moins importante par un travail d’intégration et développement.
Chez Saegus, nous avons développé nos méthodologies de benchmark pour éclairer les choix de nos clients, prenant en compte l’ensemble de ces critères.
Vous souhaitez en savoir plus ?