L’irruption de DeepSeek bouleverse le paysage de l’intelligence artificielle. Cette startup chinoise remet en question un modèle économique fondé sur des investissements massifs en data centers et en puces ultra-performantes. Peut-on désormais concevoir des modèles d’IA avec des ressources bien moins gourmandes ? Et si la véritable disruption était là : une intelligence artificielle plus accessible, moins coûteuse et qui redéfinit les rapports de force entre les acteurs du marché ? Christian Parisot, président d’Altaïr Economics, décrypte cette mutation et ses implications pour les entreprises et les investisseurs.
Bonjour à tous et bienvenue sur Synapses.
Vincent Bezault : DeepSeek a jeté un froid sur la thématique de l’IA, mais est-ce que les choses ont vraiment changé ? Eh bien, nous allons nous interroger et nous questionner avec notre invité du jour, Christian Parisot, président d’Altair Economics. Avant d’engager la discussion avec Christian, rappel rituel pour nous soutenir, parce que c’est très important, abonnez-vous, commentez les émissions, partagez-les et mettez un pouce vers le haut si vous les appréciez. Christian, bonjour. Bonjour. Alors, on a eu un lundi sanglant lorsque le marché a pris conscience de la disruption que proposait DeepSeek. Alors, est-ce que c’est une véritable disruption ? On va en parler. Cela dit, quand on écoute un peu les gros investisseurs américains dans l’IA, que sont les géants de la tech, ils ont l’air de dire, mais en fait, ça n’a pas changé grand-chose, on va continuer à investir, nos modèles sont performants. Donc, est-ce qu’on se fait peur pour rien ?
Christian Parisot : Oui, alors, le fond du problème, soit véritablement cette start-up chinoise, tout ce qu’elle nous dit, c’est faux, et ça n’a rien à voir avec la réalité, soit il y a un point clé, un point qui va être très vite résolu, puisque finalement, tous leurs modèles sont en libre de droit, et donc tout le monde peut le regarder, c’est « est-ce qu’on peut faire de l’intelligence artificielle en utilisant moins de capacités de calcul ? » Le fond de l’histoire est là, ce n’est pas autre chose. Tout le reste, après, que ce soit chinois, américain, je m’en moque, c’est la vraie question, c’est peut-on avoir un modèle d’intelligence artificielle qui, demain, va utiliser deux fois moins de puissance de calcul que ce qu’on utilise aujourd’hui. Et ça, c’est important, parce qu’au-delà du phénomène DeepSeek, ça fait plusieurs mois qu’on voit du travail de recherche dans ce domaine-là, qui montre que de plus en plus, on peut faire des modèles qui sont plus économes en énergie. Alors au début, c’était plutôt pour des raisons écologiques et puis des raisons de rentabilité économique. Mais on voit que très clairement que l’on tend vers des intelligences artificielles beaucoup moins grandes, beaucoup plus centrées sur les besoins des entreprises. Demain, on n’a pas besoin d’une intelligence artificielle qui réponde à tout. Ça, c’est peut-être une erreur. Il vaut mieux avoir une intelligence artificielle qui soit adaptée aux besoins de chacun. Ce que veut une entreprise, c’est par exemple une intelligence artificielle qui sache lire toute sa documentations techniques et qu’elle soit centrée là-dessus et pas une intelligence artificielle qui va répondre à toutes vos questions et faire vos devoirs. Donc ça, c’est très bien pour ChatGPT en termes d’image, de vitrine, mais dans les entreprises, ce sont des choses beaucoup plus pointues. Et derrière, pour faire cette intelligence très pointue, est-ce qu’on a besoin d’avoir des capacités de calcul énormes via des data centers ou est-ce que finalement on peut faire beaucoup avec peu ? Et je trouve que la vraie révolution derrière DeepSeek, c’est qu’ils nous ont montré qu’on peut faire des modèles, des modèles performants avec des anciennes puces de Nvidia, donc, des puces beaucoup moins performantes, qui n’étaient pas dédiées à l’intelligence artificielle, qui n’ont pas été formatées pour les questions que pose l’intelligence artificielle et qu’ils ont pu faire des modèles [..]. Et ça veut dire quoi ? Ça veut dire que pratiquement [ils] (DeepSeek) peuvent faire aujourd’hui des réponses avec leur intelligence artificielle, avec des coûts beaucoup plus bas que leurs concurrents. Mais ça, c’est une conséquence mécanique. La vraie problématique, c’est est-ce qu’on peut faire plus d’intelligence artificielle avec moins de capacité de calcul ? Et c’est ce que semble montrer aujourd’hui l’évolution de la recherche dans l’intelligence artificielle et en particulier cette startup chinoise. Alors quand on regarde les investissements annoncés des grands de la tech américaine, On n’a pas l’impression que ça va ralentir tout de même et qu’il y ait une telle remise en question. C’est un peu toute la problématique qu’on a eue lors de la présentation des résultats du quatrième trimestre. Dans leur discours pour l’année 2025, les grands géants américains nous ont dit : « on va investir comme si de rien n’était, ça ne remet pas du tout en cause nos investissements et on va investir massivement. » Alors ça, c’est, je dirais, la surface. Et puis après, quand on regarde un peu dans le détail, Il y a quand même le patron de Microsoft qui a mis un petit bémol, il a dit : « attention, on dit qu’on va investir, mais on profite encore de la loi Moore, c’est-à-dire qu’on peut finalement augmenter énormément les capacités en réduisant les coûts, donc finalement est-ce qu’on aura besoin d’autant de capacités qu’on l’a dit, ce n’est pas évident ». Donc déjà premier petit bémol, on les sent un peu plus prudents, et puis on a un autre acteur, alors un, lui, qui se frotte les mains, c’est Apple. Alors, le patron d’Apple, Tim Cook, lui, il est très content, parce qu’il dit, attention, ce que montre DeepSeek, et il a raison, c’est qu’on peut faire finalement de l’intelligence artificielle sans forcément avoir besoin de grands serveurs et il met en avant naturellement ses produits, il vend ses produits Apple, mais il dit :« regardez, nous, on a nos puces dédiées à l’IA qui sont sur les smartphones et on a vraiment un système, un OS, un système opérationnel qui est complètement intégré avec ces puces, et ça veut dire que pour l’intelligence artificielle, on n’a pas besoin d’avoir des énormes serveurs qui tournent dans le monde entier, il suffit de le faire en local sur nos téléphones. L’intelligence artificielle sera sur nos téléphones et finalement ça réduit énormément les besoins d’investissement. » Donc déjà premier constat, on sent qu’il y a quand même un peu de fissures dans le discours, on commence à se dire est-ce que c’est nécessaire d’avoir autant besoin d’investir massivement dans des data centers ? Alors il y a peut-être un élément qui modère mes propos, c’est de dire oui, mais en cassant les prix, en faisant de l’intelligence artificielle à bas prix quelque part, est-ce qu’on ne va pas avoir un effet volume ? On va rapidement développer ces modèles. Beaucoup plus de gens vont utiliser ces modèles. Et donc, in fine, ça sera bon pour ces data centers.
Vincent Bezault : Oui, c’est le paradoxe de Jevons. C’est-à-dire qu’une baisse du prix, finalement, développe plus l’usage et aboutit à une augmentation de la demande d’infrastructures.
Christian parisot : Alors là, je mettrais deux bémols. Premier bémol, c’est que oui, c’est peut-être vrai. Mais ce que montre aussi cette startup, c’est qu’on a cassé, finalement, une barrière à l’entrée. C’est peut-être la question essentielle, c’est celle de la barrière à l’entrée, parce que finalement, le marché jouait une thématique assez limpide, c’était celle de l’intelligence artificielle construite autour de barrières à l’entrée très fortes, qui étaient la détention de data centers et des puces pour les faire fonctionner. Là, finalement, la barrière à l’entrée tombe. Très clairement. Parce que si on a moins besoin de puissance de calcul, déjà, et je reviens à ma thématique Apple, c’est qu’on peut le faire sur un smartphone. Donc, on n’a plus besoin d’avoir une puce Nvidia dans un super serveur pour répondre et faire de l’intelligence artificielle. Alors, je ne vous dis pas qu’on fera tout sur le smartphone. Il y aura forcément une partie qui sera en délocalisé pour des choses trop complexes. Mais on voit que, déjà, on change de raisonnement. C’est-à-dire que très clairement, on peut se dire que l’utilisateur, par son smartphone, va finalement financer l’IA. Donc, déjà, on n’a pas besoin d’investir massivement, bon, ça c’est un premier point mais surtout ce qu’on voit c’est qu’on n’a pas forcément besoin d’avoir les puces de Nvidia dédiées à l’intelligence artificielle ; on se dit que finalement un autre fabricant de puces qui n’a pas investi énormément et qui n’a pas fait des puces dédiées à l’intelligence artificielle pourrait devenir un concurrent à Nvidia. Donc, vous voyez que déjà pour Nvidia c’est quand même une grosse barrière qui est en train de tomber puisque cette entité chinoise, cette start-up chinoise peut ne pas utiliser les puces de dernière génération de Nvidia. Donc, ça remet quand même en cause pas mal de choses. Et tous ces acteurs, là, ces Microsoft, ces Amazon Web Services, tous ces grands acteurs ont investi énormément et ont payé très cher ces puces à Nvidia. Donc, pourquoi ils ne veulent pas aujourd’hui annoncer des baisses et des coupes dans leur projet d’investissement ? Parce que ça reviendrait à dire, pour eux « on a investi et on a payé peut-être très cher ces puissances de calcul, alors que ce n’était pas nécessaire, on se retrouve avec des sur-valeurs, avec des investissements qui auront une rentabilité, mais beaucoup plus faible qu’on l’anticipait. Et puis surtout, on va être concurrencé peut-être par des nouvelles offres qui seront peut-être moins chères, des gens qui pourront mettre en place des serveurs avec des puces moins puissantes et qui vont nous mettre une grosse pression sur les prix. »
Vincent Bezault : Donc des dépréciations d’actifs potentiels.
Christian Parisot : Des dépréciations d’actifs potentiels et puis une concurrence beaucoup plus forte ! Je n’ai pas besoin de m’appeler Microsoft, je n’ai pas besoin de m’appeler finalement Amazon. Moi, petit acteur local, avec des puces qui n’ont pas été achetées à Nvidia, je peux peut-être offrir aussi un service d’intelligence artificielle. Alors je mets beaucoup de conditionnel à tout ça, ça demandera à être vérifié encore une fois, mais c’est quand même une vraie rupture, ça veut dire que très clairement, on est sur des offres en termes de data center qui vont être concurrentielles, et donc il n’y a plus de prime au géant, à celui qui avait vraiment une force de frappe, une capacité de calcul importante. Aujourd’hui, on peut avoir beaucoup de concurrence. Donc ça, c’est un autre monde. Donc déjà, on voit, il y a une concurrence pour les fabricants de semi, pour les fabricants de la puce. Il y a une concurrence pour les hyper-scalers, les gens qui vendaient les plateformes, parce que ça veut dire qu’on va pouvoir créer très facilement une plateforme pour faire tourner l’intelligence artificielle. Donc ça veut dire plus de concurrence, donc forcément une pression sur les prix. Cela ne profitera pas forcément à ceux qui ont investi massivement. Et surtout il y a un risque de dépréciation. Et puis dernier point, et non des moindres, c’est qu’on voit que la Chine est capable de faire une offre d’intelligence artificielle malgré les restrictions qu’a mises en place l’administration américaine, que ça soit M. Trump ou M. Biden, dans les deux cas, on était devant le fait que les Américains voulaient protéger leur savoir-faire parce qu’ils pensaient qu’ils allaient avoir les data centers les plus performants avec les meilleurs puces et que la Chine ne pourrait jamais rattraper son retard dans l’intelligence artificielle et ce n’est pas le cas. Alors, on peut peut-être souffler du côté de l’Europe en se disant, si la Chine l’a fait, nous aussi on va peut-être rattraper notre retard. A cela, il faut quand même mettre un petit bémol, la Chine a mis énormément d’argent pour développer son offre d’intelligence artificielle.
Vincent Bezault : Elle produit énormément d’ingénieurs. Elle produit aussi de la main d’œuvre qualifiée.
Christian Parisot : Mais en tout cas, ce qui est certain, c’est que ça casse l’idée qu’il y a. quelques acteurs qui vont remporter toute la mise. Et ça, c’est quelque chose d’important en termes d’investissement. Quand vous avez plein d’acteurs qui peuvent apparaître et qui seront concurrentiels, ça veut dire que les profits ne seront pas concentrés à un seul endroit et qu’il n’y aura pas un grand gagnant d’intelligence artificielle. Ça signifie aussi qu’il faut être très prudent dans ses investissements. Il ne faut pas tout mettre et pas tout miser sur deux ou trois valeurs dont on pense qu’elles vont remporter toute la mise. Il va falloir diversifier […] sur plusieurs acteurs dans ce secteur.
Vincent Bezault : Tout miser sur une poignée de valeurs était ce qu’il fallait faire avant, puisque les conditions étaient celles de barrières à l’entrée assez imposantes au bénéfice de certains acteurs. Là, ces barrières tombant, en effet, ça va être plus compliqué. On a bien compris que pour Nvidia, ça allait être tout de même un vrai sujet. Vous dites que dans l’univers des semi-conducteurs, finalement, on va avoir une concurrence accrue parce que c’est vrai que si on peut faire de l’intelligence artificielle avec des puces moins sophistiquées, pourquoi s’embêter à aller chercher forcément le mieux disant, et le payer très cher ? C’est un peu ça le problème. Est-ce qu’un des gagnants, ça ne pourrait pas être Apple ? On a vu que la réaction du cours avait été plutôt positive lorsque le coup de tonnerre DeepSeek a retenti et que ça a été la dégringolade pour un certain nombre de valeurs technologiques ?
Christian Parisot : Apple sort renforcé de cette histoire parce que véritablement, il y avait un peu deux visions du monde. Il y avait une vision où on fait tourner les modèles d’intelligence artificielle au niveau du smartphone, au niveau du téléphone, et une autre où on le fait via ces data centers et on délocalise. Alors ça posait un problème à Apple parce que naturellement, c’est un problème de gestion de la vie privée, de gestion de la confidentialité des données ; à partir du moment où ça remontait au niveau des serveurs, on perdait cette confidentialité. Donc il y avait ce problème-là pour Apple par rapport à son image et par rapport à ce qu’ils veulent offrir à leurs consommateurs. Et puis derrière, ça, ça voulait dire qu’il fallait investir énormément dans des data centers, et donc ça demandait un investissement assez important. Et c’est vrai que certains acteurs dans la téléphonie ont plutôt investi, à l’image de Samsung, dans l’achat des data centers. Mais se pose alors le problème de la manière dont on va refacturer finalement cette intelligence artificielle ? C’est un coût, c’est un coût de production élevé… mais il va bien falloir le refacturer au consommateur. Et ça, ça supposait de créer un abonnement, un abonnement mensuel, et que tous les mois, le consommateur accepte de payer pour l’utilisation de l’intelligence artificielle sur son téléphone le fabricant de ce même téléphone. Là, à partir du moment où c’est au niveau local, c’est vous qui payez finalement, vous chargez votre batterie, votre téléphone, vous utilisez le processeur. En plus, Apple a un avantage, c’est que son système d’exploitation est très bien intégré avec ses puces, et ses puces sont plutôt performantes. Ces derniers temps, on avait du mal à voir l’intérêt d’acheter le dernier Apple avec la super puce qui fait plein de calculs, pour juste passer un coup de téléphone et envoyer 3 SMS. Donc, là, Apple redonne de la valeur ajoutée à son matériel, et il justifie qu’on ait une rotation de son matériel, et le fait qu’on reste en local, garantit, sécurise vos données. Donc c’est quand même pas mal d’éléments un petit peu positifs en termes de marketing, en termes d’utilisation de l’intelligence artificielle, et donc si effectivement les prochains modèles d’intelligence artificielle peuvent être beaucoup moins coûteux et qu’on demande beaucoup moins de puissance de calcul et qu’on fait beaucoup plus de choses en dédiant à tout ça au niveau local, ça peut être un vrai élément et un vrai élément concurrentiel important pour Apple.
Vincent Bezault : Est-ce que les principaux bénéficiaires maintenant de l’IA et peut-être ceux à jouer, pas forcément à court terme (quoique quand on voit certains dossiers, on peut s’interroger si la thématique n’est pas déjà prise en compte par les marchés) est-ce que finalement les futurs gagnants de cette thématique ne sont pas principalement les usagers qui vont réaliser des gains de productivité ? Et parmi les usagers les plus évidents à discerner, ce sont peut-être ceux qui ont énormément de données sur les consommateurs, sur des processus, et qui peuvent grâce à l’IA développer de nouveaux services et aller beaucoup plus vite justement dans la création de ces services et leur déploiement ?
Christian Parisot : Oui, c’est toute la problématique du logiciel libre. Vous savez que l’un des gros moteurs des résultats d’IBM aujourd’hui, c’est la Red Hat. C’est-à-dire que c’est les logiciels qui sont libres, libres d’utilisation par tout le monde, mais la valeur à ajoutée, elle est dans l’informaticien que je vais vous dédier, qui va utiliser ces logiciels libres, mais qui va vous les appliquer, qui va vous les développer pour votre entreprise. Et donc, ça, ce sont des métiers très bien margés, où on a forcément un nombre très limité de gens compétents qu’on va facturer très cher auprès du client pour adapter le logiciel libre à ses besoins. Et je pense que l’IA, c’est un peu ça, puisque le succès qu’on a eu à travers cette startup chinoise, c’est qu’elle a utilisé des modèles qui étaient libres, qui étaient des modèles de recherche, mais qui étaient disponibles pour tout le monde. C’est pour ça que je n’ai pas trop d’inquiétude sur la viabilité de son modèle, parce que s’ils ont triché, de toute façon, tout le monde le saura très vite et on ne pourra pas reproduire ce qu’ils ont fait. Donc, si on reproduit ce qu’ils ont fait, c’est parce que c’est un logiciel libre. Donc le fait que ça soit en libre, ça veut dire que la valeur ajoutée est en train de se déplacer. C’est-à-dire que si demain je mets en concurrence toutes ces plateformes qui m’offrent des capacités de calcul, et que, moi, j’utilise un logiciel libre que tout le monde peut utiliser, la vraie valeur ajoutée sera de payer la personne qui va adapter l’intelligence artificielle à mes besoins propres. Et je reviens à mon exemple, ce qui m’intéresse moi, c’est que dans mon travail, dans le travail de mon entreprise, l’intelligence artificielle soit efficace par rapport à mes besoins. Et ça, ça demande un ingénieur qui va développer, qui va adapter, qui va regarder votre base de données, qui ne va pas la mettre sur le net et disponible à tout le monde, donc qui va vraiment vous faire quelque chose qui est dédié, qui va utiliser toutes ces briques qui sont disponibles librement et qui va vous l’adapter pour vos besoins. Et ça, ça vaut très cher. Et ça veut dire qu’on passe à une autre étape. La valeur ajoutée, ce n’est pas celui qui fabrique les pelles parce qu’il y en a plein qui vont fabriquer des pelles. La valeur ajoutée n’est pas dans celui qui vous vend la puissance de calcul puisque finalement il va être en concurrence et qu’il ne va pas avoir forcément beaucoup de marge. Ce n’est pas celui qui fait le logiciel, l’algorithme, parce que tout le monde est connu, mais c’est celui qui va vous déployer l’algorithme chez vous. Et là, on retombe sur les sociétés de services informatiques et on retombe sur les éditeurs de logiciels qui utilisent ça. Et en plus, les éditeurs de logiciels peuvent considérer qu’aujourd’hui, le coût de l’intelligence artificielle va diminuer puisqu’il va y avoir une forte concurrence. Donc ça veut dire que ce coût qu’ils ne refacturaient à leurs clients que partiellement parce qu’il était très élevé (ce qui mettait une pression sur leurs marges) ne sera pas là. Et donc, c’est vraiment une très bonne nouvelle pour les gens qui auront véritablement leur solution logicielle adaptée aux besoins des entreprises.
Vincent Bezault : Ce type de prestataire de services devrait en effet se lécher les babines en voyant les perspectives qui s’offrent à eux. Mais est-ce qu’une autre strate gagnante ne seront pas les entreprises, et là je reviens à ma question initiale, qui détiennent de la donnée à valeur ajoutée et qui vont pouvoir l’exploiter au mieux grâce justement à ces services d’intelligence artificielle ?
Christian Parisot : Oui, là on est dans le dernier étage de la fusée, c’est-à-dire que ça sera le déploiement d’intelligence artificielle. Alors ce qui est certain, c’est que je dirais que DeepSeek, en faisant des modèles, je mets entre guillemets, d’intelligence artificielle « low cost », à bas coût, ouvre véritablement la voie à un déploiement potentiellement beaucoup plus rapide de l’intelligence artificielle et même auprès des plus petites entreprises qui n’auraient pas eu accès à cette intelligence artificielle autrement. Donc d’un côté les gros acteurs qui pouvaient investir massivement en intelligence artificielle se seront plus forcément en position de force, parce que le financement n’est pas un avantage. D’un autre côté, ça veut dire une diffusion dans l’économie, et si éventuellement ça génère énormément de gains de productivité, ça veut dire un effet beaucoup plus important. Et ça veut dire aussi que la valeur ajoutée et les effets de gains de productivité vont peut-être enfin se voir au niveau macroéconomique. Je m’explique. Si vous avez ces gains de productivité qui sont concentrés sur quelques grands acteurs, comme on semblait nous le jouer il y a encore quelques mois, si quelque part c’est Amazon qui rafle tout, Microsoft qui rafle tout, ça veut dire que ce sont des gros acteurs qui avec peu de personnel à l’échelle mondiale, je m’entends, peuvent offrir un service à tout le monde et gardent la valeur ajoutée chez eux. Mais si je vous dis que maintenant on est dans un modèle où ils vont être en concurrence, qu’ils ne vont pas avoir forcément cette prime à la taille et que ça va être diffusé rapidement dans toute la population, cela veut dire que les gains vont être répartis dans toutes les sociétés, dans toutes les entreprises, dans tous les milieux d’activité. A ce moment-là, il faut arbitrer non pas en fonction d’un acteur, mais en fonction des secteurs qui sont les plus sensibles à l’intelligence artificielle et qui pourraient le plus en bénéficier. Je vais vous prendre un exemple. On sait qu’aujourd’hui, les secteurs gagnants, ce seront la comptabilité et tout ce qui est code, informatique. Ça, ce sont des applications pratiques et où on a des gros gains de productivité. Donc, ça sera tout ce qui est juridique, secteur des services. Et ça nous amène à une autre point important : on disait toujours en économie, les gains de productivité, c’est dans l’industrie. Pourquoi ? Parce qu’on met à la place d’un travailleur, on met trois robots industriels et ils ont des gains de productivité énormes. Là, on est dans la phase où l’intelligence artificielle, si vraiment c’est une source de gains de productivité, va jouer dans les services, et les gains de productivité se trouveront à mon avis dans tout ce qui est support, service aux entreprises. Et donc là, on peut commencer à réfléchir réellement à où sont les gains de productivité. Est-ce que c’est dans la comptabilité ? Ça sera alors dans tout ce qui est service aux entreprises dans la comptabilité. Si c’est dans tout ce qui est logiciel, tout ce qui est déploiement d’intelligence artificielle autour de tout ce qui est service après-vente, dans tout ce qui est fonction d’aide, dans tout ce qui est réparation. Donc on voit qu’il peut y avoir énormément de gains de productivité et là on va avoir des secteurs véritablement qui peuvent connaître des mutations importantes.
Vincent Bezault : Bon, ça sera passionnant à observer et à analyser. Je vais tenter de synthétiser évidemment tout ce que vous avez dit Christian. De votre point de vue Christian, DeepSeek constitue tout même un tournant dans la thématique de l’intelligence artificielle. Les géants de la technologie ont beau vouloir être rassurants, ce que vous dites c’est que ça change tout même la donne, parce que ça fait tomber, très schématiquement, la barrière à l’entrée que tout le monde imaginait imperméable et indestructible, c’est-à-dire avoir les data centers… qui tourne avec les puces les plus sophistiquées pour que finalement on ait la puissance de calcul suffisante pour offrir des services d’intelligence artificielle. Ce que DeepSeek démontre, c’est qu’on peut produire de l’intelligence artificielle à des coûts beaucoup plus réduits, et évidemment ça bouleverse tout, ça veut dire qu’on peut avoir des puces d’anciennes générations qui sont tout à fait efficaces pour faire fonctionner des modèles d’intelligence artificielle de type DeepSeek. Ça veut dire aussi que tous ceux qui ont misé sur les data centers et les gros serveurs peuvent se poser des questions quant à la pertinence de leurs investissements et pourraient avoir à passer des dépréciations d’actifs. Donc on sent bien que c’est tout de même un peu le sujet épineux pour les grands groupes de tech et ils sont de moins en moins à l’aise quand on leur parle de la question. Le bouleversement que provoque DeepSeek amène aussi à une redistribution des cartes entre les entreprises. Les gagnants d’hier ne seront pas les gagnants de demain, c’est très clair. Et parmi les gagnants que vous identifiez, il y a évidemment toutes les sociétés qui proposent le déploiement de ces outils d’intelligence artificielle puisque là, il va falloir les adapter aux usages des entreprises. Vous dites que c’est ça la véritable démocratisation de l’intelligence artificielle, ça va concerner les entreprises principalement pour qu’elles gagnent en productivité. Donc les entreprises de services informatiques vont en bénéficier naturellement et il faut peut-être s’y intéresser. Et puis la dernière strate, ce sont évidemment toutes les entreprises qui vont être en capacité de réaliser des gains de productivité très importants avec cette nouvelle ressource, ressource qui sera plutôt à bas coût. C’est correctement résumé ?
Christian Parisot : Très bien.
Vincent Bezault : Christian, merci beaucoup. Merci à vous de nous avoir suivis. Abonnez-vous, commentez les émissions, partagez-les et mettez un pouce vers le haut si vous les avez appréciées. A très bientôt.