Microsoft lance DeepSeek R1 pour PC Copilot+

Microsoft lance DeepSeek R1 pour PC Copilot+

Microsoft a récemment fait une avancée majeure en intégrant les modèles distillés DeepSeek R1 à ses PC Copilot+. Ce projet témoigne de l’engagement de l’entreprise envers l’intelligence artificielle, en particulier avec l’ajout du modèle DeepSeek R1 à l’Azure AI Foundry.

Ce nouveau modèle est destiné aux développeurs, leur permettant de tester et de créer des applications et des services basés sur le cloud. Mais ce n'est pas tout ! Les versions distillées de R1 seront d'abord disponibles sur les appareils équipés de chips Snapdragon X, suivis de ceux avec les processeurs Intel Core Ultra 200V et les PCs basés sur AMD Ryzen AI 9.

Le premier modèle à être lancé est le DeepSeek-R1-Distill-Qwen-1.5B, un modèle contenant 1,5 milliard de paramètres. Des modèles plus avancés de 7 milliards et 14 milliards de paramètres devraient bientôt faire leur apparition, tous téléchargeables depuis l'AI Toolkit de Microsoft.

Pour que ces modèles fonctionnent efficacement, Microsoft a effectué des ajustements afin d’optimiser leur performance sur les appareils dotés de NPU. Les opérations nécessitant une importante utilisation de la mémoire sont traitées par le CPU, tandis que les calculs intensifs, comme ceux du bloc de transformateur, sont exécutés sur le NPU. Grâce à ces optimisations, Microsoft a obtenu un temps rapide pour obtenir le premier token (130 ms) et un taux de traitement impressionnant de 16 tokens par seconde pour les courtes demandes.

Il est intéressant de noter que Microsoft, bien qu'il soit un fervent soutien d'OpenAI, ne fait pas de favoritisme. Son Azure Playground intègre également des modèles de GPT (OpenAI), Llama (Meta) et Mistral. L’introduction de DeepSeek dans ce mix prouve encore une fois l’engagement de Microsoft dans le domaine de l'IA.

Pour ceux qui souhaitent plonger dans l’intelligence artificielle locale, le téléchargement de l'AI Toolkit pour VS Code est la première étape. À partir de là, vous pourrez obtenir le modèle localement (par exemple, “deepseek_r1_1_5” pour le modèle 1,5B). Il ne vous reste plus qu'à cliquer sur Try dans le Playground pour évaluer les compétences de cette version distillée.

La distillation de modèles, également connue sous le nom de distillation de connaissances, permet de transférer une grande quantité de connaissances d’un modèle AI volumineux (ici, le modèle complet DeepSeek R1 qui a 671 milliards de paramètres) vers un modèle plus petit. Bien que le modèle distillé soit moins performant, sa taille réduite facilite son exécution sur du matériel grand public, rendant ainsi l'IA plus accessible.