top of page
téléchargement (1)_edited.jpg

DeepSeek R-1 : Un nouveau modèle LLM prometteur, mais pour quels usages en entreprise ?

  • Photo du rédacteur: Victor Landeau
    Victor Landeau
  • 20 févr.
  • 5 min de lecture

Dernière mise à jour : 18 juil.

Depuis un mois, ce modèle fait parler de lui grâce à sa capacité de raisonnement avancée et son coût attractif. Mais quels sont ses véritables atouts et ses limites pour l’entreprise ? Dans cet article, je vous propose un tour d’horizon des cas d’usages, des modalités d’hébergement et des points de vigilance essentiels.


ree

I. DeepSeek R-1 : Quels cas d’usages en entreprise ?


➡️ 1. Génération de contenu et gestion de la connaissance : une utilisation pour des cas avancés


Le modèle R1 ayant été entraîné à générer des raisonnements logiques sur des tâches complexes, son utilisation peut être intéressante dans tous les cas où la réponse attendue n’est pas juste de renvoyer une connaissance brute. Ainsi, les cas d’usages pertinants incluent : 


  • la génération de plans d’action, 

  • la réflexion stratégique, 

  • ou toute question nécessitant un tant soit peu de raisonnement sont des cas d’usages pertinents.


Au contraire, sur des cas plus simples, DeepSeek va se révéler beaucoup plus lents que les services concurrents, pour des résultats qui ne seront pas forcément meilleurs. Ces cas à éviter peuvent inclure : 


  • demander une information simple, 

  • rédiger un email,

  • résumer un article

  • ou retrouver une information dans votre base de connaissance.



➡️ 2. Utilisation directe pour les clients : la prudence s’impose


Les modèles de DeepSeek ayant principalement été entraînés sur des corpus anglophones et sinophones, il paraît risqué de les utiliser pour construire des services francophones en contact direct avec les clients, tels que des chatbots. D’autant plus qu’aucune évaluation rigoureuse n’a encore été faite sur la maîtrise de ces modèles d’autres langues que l’anglais et le chinois, et que DeepSeek a lui-même mis en garde contre les risques qu’une utilisation dans une autre langue représente. Des expérimentations internes ont notamment relevé un risque de mélange entre la langue de la question et les langues d’entraînement dans la réponse générée.


➡️ 3. Génération de code : la force de DeepSeek


Le modèle DeepSeek-R1 a notamment été entraîné sur des tâches de génération de code, le rendant particulièrement utile pour assister les développeurs. Les modèles de DeepSeek ont d’ailleurs dores et déjà été intégrés à Cursor et Windsurf, les principaux IDE mettant aujourd’hui l’IA au coeur de leur fonctionnement, et des plugins spécifiques pour Intellij IDEA et VSCode ont été créés.

Néanmoins, pour des tâches de complétion de code tel que ce que propose github copilot, un modèle plus rapide tel que DeepSeek-V3 semble beaucoup plus approprié.


➡️ 4. Agents et Workflows IA : une utilisation détournée


L’utilisation de DeepSeek-R1 au sein d’Agents ou de Workflows IA est, elle, moins évidente que ce qu’on pourrait penser. En effet, ce modèle n’a pas été entraîné spécifiquement à la génération de réponse structurées (en JSON notamment) et à l’utilisation d’outils, techniques qui sont à la base de ce type d’approche. Il est possible d’essayer d’inciter le LLM à générer des réponses au format attendu à travers le prompt, mais le résultat n’est pas garanti.


Cependant, une utilisation de DeepSeek-R1 dans ce type de système reste possible et potentiellement très intéressante. Pour cela, il convient de la cantonner aux tâches d’analyse et de réflexion, et de laisser à d’autres modèles le soin de prendre les actions adéquates. C’est l’approche adoptée par aider, un système open-source d’agents visant à automatiser des tâches de développement logiciel. Aider a depuis quelque temps déjà permis une séparation entre les tâches de raisonnement ou d’architecture de code d’une part et les tâches d’édition de code d’autre part. Il s’agit d’un tel système combinant R1 pour l’architecture et Claude Sonnet pour l’édition de code qui se retrouve actuellement en tête de son benchmark d’agents, devant les meilleurs modèles d’OpenAI et pour un coût bien moins important.


Source : Aider LLM Leaderboards
Source : Aider LLM Leaderboards

II. Les différentes manières de l’utiliser


➡️ 1. Utilisation des services de DeepSeek : à éviter


Votre premier réflexe pourrait être de foncer sur le site de Deepseek, et de lui poser le dernier questionnement qui vous a pris la tête. Et peut-être l’avez-vous déjà fait. 

Néanmoins, gardez-vous bien d’inclure dans votre question des informations que vous jugerez confidentielles. En effet, comme le montre la fuite de données découverte par Wiz, Deepseek ne semble pas encore être aujourd’hui un acteur mâture apte à assurer la sécurité des informations que vous lui transmettez. De plus, les tensions géopolitiques actuelles rendent risqué le fait de dépendre de services mis à disposition par les entreprises chinoises, qui ne respectent pas non plus les réglementations européennes.


➡️ 2. Hébergement du modèle : privilégier les modèles distillés


Si l’utilisation des services de Deepseek paraît risquée, il vous est néanmoins possible d’héberger vous-même Deepseek-R1. En effet, Deepseek ayant choisi d’open-sourcer ses modèles, il est possible pour vous de les héberger sur votre propre infrastructure. Des entreprises comme AWS et Dell mettent d’ailleurs déjà à disposition des services vous permettant de le faire aisément, si vous utilisez leurs plateformes.

Si vous choisissez une telle option, privilégiez l’utilisation des modèles distillés de Deepseek dans un premier temps. En effet, ces modèles construits par Deepseek à partir des modèles open-sources de Meta et Alibaba ont aussi des performances impressionnantes sur les tâches de raisonnement, même si elles restent inférieures à celles du modèle Deepseek-R1 de base. Surtout, ces modèles sont beaucoup plus petits, ce qui devrait vous permettre de réduire facilement d’un facteur 10 votre facture (par rapport à un coût estimé aux alentours de 24.000$ par mois pour un hébergement de DeepSeek R1 sur AWS, par exemple).


Source : Aider LLM Leaderboards
Source : Aider LLM Leaderboards


➡️ 3. Utilisation de services tiers : pour avoir accès au modèle de base à moindre coût


Si vous souhaitez tout de même utiliser le modèle principal de Deepseek, une autre solution pour ne pas vous ruiner consiste à passer par des services tels que Together.ai ou Perplexity. Ces entreprises ayant plus de maturité et hébergeant elles-même le modèle dans des pays occidentaux, cela devrait assurer une certaine sécurité pour vos données, tout en profitant d’un prix beaucoup plus attractif en cas d’utilisation faible ou modérée (si le service que vous souhaitez mettre en place ne sera pas utilisé par des milliers d’utilisateurs quotidiens, notamment).



Conclusion


Nous l’avons vu : si DeepSeek-R1 n’est pas la solution à tous les cas d’usages, son utilisation peut s’avérer extrêmement intéressante dans de nombreux cas d’usages, notamment à travers sa capacité de raisonnement à la pointe et son coût très raisonnable.


Toutefois, un autre impact fondamental du lancement de DeepSeek-R1 a été le relancement de la guerre des prix avec les autres acteurs du domaine, OpenAI ayant par exemple finalement décidé de fournir son modèle o3 pour un coût beaucoup moins élevé que prévu initialement. 

Cela pourrait aussi amener une nouvelle accélération de l’innovation dans le domaine, avec la sortie actuelle de nombreux modèles de tailles très faibles ou fine-tunés sur très peu de données. Cela pourrait relancer les efforts pour la création de modèles spécifiques à chaque entreprise ou de petits modèles déployés sur les appareils mobiles.


Et vous, avez-vous déjà testé Deepseek-R1 ? Quels usages vous semblent les plus pertinents ?


Vous ne savez pas quel LLM est le mieux adapté à votre cas d’usage ? Chaque entreprise a des besoins spécifiques : coût, performance, sécurité, hébergement… Faire le bon choix est essentiel pour tirer le meilleur des IA génératives.

 
 
 

Commentaires


bottom of page