{"id":1085,"date":"2024-05-03T09:32:20","date_gmt":"2024-05-03T09:32:20","guid":{"rendered":"https:\/\/simplon.ci\/n\/?p=1085"},"modified":"2024-05-03T09:32:20","modified_gmt":"2024-05-03T09:32:20","slug":"avec-sa-nouvelle-superpuce-nvidia-en-situation-de-quasi-monopole-sur-le-marche-de-lia","status":"publish","type":"post","link":"https:\/\/workforce.simplon.ci\/index.php\/2024\/05\/03\/avec-sa-nouvelle-superpuce-nvidia-en-situation-de-quasi-monopole-sur-le-marche-de-lia\/","title":{"rendered":"Avec sa nouvelle \u00ab\u00a0superpuce\u00a0\u00bb, Nvidia en situation de \u00ab\u00a0quasi-monopole\u00a0\u00bb sur le march\u00e9 de l\u2019IA"},"content":{"rendered":"\n<p><\/p>\n\n\n\n<p>D\u00e9j\u00e0 acteur incontournable du secteur de l\u2019intelligence artificielle, Nvidia a encore envoy\u00e9 un message fort \u00e0 la concurrence. La multinationale am\u00e9ricaine sp\u00e9cialiste des semi-conducteurs a annonc\u00e9, lundi 18 mars, la sortie de sa nouvelle \u00ab\u00a0superpuce\u00a0\u00bb destin\u00e9e \u00e0 accompagner la r\u00e9volution de l&rsquo;intelligence artificielle (IA).<\/p>\n\n\n\n<p>Dans un moment o\u00f9 Nvidia cherche \u00e0 consolider sa position mondiale de fournisseur crucial \u2013 elle d\u00e9tient au moins 80 % du march\u00e9 mondial des puces consacr\u00e9es \u00e0 l\u2019IA \u2013, son directeur g\u00e9n\u00e9ral Jensen Huang a pr\u00e9sent\u00e9 la puce Blackwell B200 lors d\u2019une conf\u00e9rence pour les d\u00e9veloppeurs \u00e0 San Jose (Californie).<\/p>\n\n\n\n<p>Nomm\u00e9e ainsi en hommage \u00e0 David Harold Blackwell, le premier universitaire afro-am\u00e9ricain entr\u00e9 \u00e0 la National Academy of Sciences, cette technologie doit fournir pour l&rsquo;IA des \u00ab\u00a0superpuces\u00a0\u00bb quatre fois plus rapides que celles de la g\u00e9n\u00e9ration pr\u00e9c\u00e9dente ayant servi \u00e0 entra\u00eener les mod\u00e8les d&rsquo;IA existants, selon Nvidia.<\/p>\n\n\n\n<p>\u00ab\u00a0Cette nouvelle puce affiche des performances impressionnantes avec une puissance de calcul qui continue de cro\u00eetre exponentiellement\u00a0\u00bb, rel\u00e8ve Fabrice Popineau, sp\u00e9cialiste de l\u2019IA et enseignant-chercheur \u00e0 la CentraleSup\u00e9lec universit\u00e9 Paris-Saclay.<\/p>\n\n\n\n<p>Pour Rapha\u00ebl-David Lasseri, expert num\u00e9rique, docteur en physique nucl\u00e9aire th\u00e9orique et fondateur de Magic LEMP, cette pr\u00e9sentation de la multinationale am\u00e9ricaine devrait entra\u00eener une acc\u00e9l\u00e9ration du d\u00e9veloppement des IA existantes : \u00ab\u00a0Ce qu\u2019a annonc\u00e9 Nvidia, c&rsquo;est globalement un facteur cinq d&rsquo;acc\u00e9l\u00e9ration de la puissance de calcul de l&rsquo;entra\u00eenement des mod\u00e8les\u00a0\u00bb, explique-t-il. \u00ab\u00a0Cela va permettre \u00e0 la fois d&rsquo;acc\u00e9l\u00e9rer \u00e9norm\u00e9ment les entra\u00eenements de mod\u00e8les (d\u2019IA, NDLR) et de r\u00e9duire le nombre de puces n\u00e9cessaires pour les entra\u00eener. Et ainsi d\u2019avoir des mod\u00e8les de plus en plus gros, et donc de plus en plus puissants.\u00a0\u00bb<\/p>\n\n\n\n<p>\u00ab\u00a0Vitesse de pr\u00e9diction plus rapide\u00a0\u00bb et IA multim\u00e9dias<br>L\u2019arriv\u00e9e de la puce B200 semble, en effet, prometteuse pour la poursuite du d\u00e9veloppement des mod\u00e8les d\u2019IA \u2013 auxquels Nvidia a d\u00e9j\u00e0 apport\u00e9 une contribution cons\u00e9quente ces derni\u00e8res ann\u00e9es. Avec sa puce H100 sortie en 2022, la multinationale am\u00e9ricaine s\u2019est rendue indispensable au secteur de la tech, notamment des Gafam qui s\u2019arrachent sa technologie \u00e0 37 000 euros pi\u00e8ce.<\/p>\n\n\n\n<p>Des H100 tellement recherch\u00e9es qu\u2019elles faisaient dire \u00e0 Elon Musk en 2023 qu\u2019elles \u00ab\u00a0sont plus difficiles \u00e0 trouver que de la drogue\u00a0\u00bb. Meta \u2013 le propri\u00e9taire de Facebook \u2013, Microsoft, Google ou encore Amazon font partie des plus gros clients de Nvidia pour ces puces d\u00e9di\u00e9es \u00e0 l\u2019IA. Les m\u00eames acteurs, ainsi qu\u2019OpenAI et Tesla, devraient aussi utiliser la B200 \u00e0 l\u2019avenir, selon Nvidia.<\/p>\n\n\n\n<p>Avec ses 80 milliards de transistors (des composants \u00e9lectroniques essentiels au fonctionnement d\u2019une puce), la H100 a permis aux mod\u00e8les d&rsquo;IA d&rsquo;\u00eatre entra\u00een\u00e9s neuf fois plus rapidement que la moyenne. La puce B200 et ses 208 milliards de transistors vont encore acc\u00e9l\u00e9rer la dynamique, et peut-\u00eatre amorcer une nouvelle g\u00e9n\u00e9ration d\u2019IA.<\/p>\n\n\n\n<p>\u00ab\u00a0Cette nouvelle technologie va notamment se concr\u00e9tiser par une vitesse de pr\u00e9diction plus rapide des mod\u00e8les d\u2019IA\u00a0\u00bb, explique Rapha\u00ebl-David Lasseri. \u00ab\u00a0La version de GPT-4, par exemple, met du temps \u00e0 pr\u00e9dire et avec ce qui a \u00e9t\u00e9 annonc\u00e9 par Nvidia \u2013 m\u00eame si ce chiffre est \u00e0 prendre avec des pincettes &#8211; cela pourrait amener une acc\u00e9l\u00e9ration de 30 fois la vitesse de pr\u00e9diction. Donc cela veut dire aller beaucoup plus vite, et aussi servir plus d\u2019utilisateurs en m\u00eame temps avec moins de puces.\u00a0\u00bb<\/p>\n\n\n\n<p>Le sp\u00e9cialiste de l\u2019IA estime aussi que cette nouvelle puce devrait permettre de \u00ab\u00a0r\u00e9duire le temps de latence (le d\u00e9lai entre une action et le d\u00e9clenchement d\u2019une r\u00e9action, NDLR) et ainsi permettre des applications beaucoup plus naturelles en termes conversationnels.\u00a0\u00bb<\/p>\n\n\n\n<p>Les capacit\u00e9s sup\u00e9rieures de la B200 par rapport \u00e0 la H100 devraient aussi permettre l\u2019essor des IA g\u00e9n\u00e9rant des \u00e9l\u00e9ments multim\u00e9dias \u2013 gourmands en puissance de calcul \u2013, que ce soit pour de l\u2019audio, de l\u2019image (comme Midjourney, qui cr\u00e9e des images \u00e0 partir de texte) ou encore de la vid\u00e9o (comme Sora, qui cr\u00e9e des vid\u00e9os \u00e0 partir de texte). \u00ab\u00a0On peut effectivement esp\u00e9rer que ces mod\u00e8les d\u2019IA soient plus performants avec ces nouvelles puces\u00a0\u00bb, selon Fabrice Popineau.<\/p>\n\n\n\n<p>\u00ab\u00a0Dans cette ru\u00e9e vers l\u2019or, Nvidia vend les pelles\u00a0\u00bb<br>Nvidia regarde d\u00e9j\u00e0 vers l\u2019avenir de l\u2019IA et semble pour le moment laisser la concurrence au bord de la route : alors que la multinationale fait la promotion d\u2019une nouvelle puce encore plus puissante, ses rivaux &#8211; dont Intel, AMD, Micron ou encore Texas Instruments &#8211; restent encore \u00e0 la peine pour faire jeu \u00e9gal avec la puissance et l&rsquo;efficacit\u00e9 du H100 sorti depuis deux ans.<\/p>\n\n\n\n<p>De quoi donner encore une longueur d\u2019avance au sp\u00e9cialiste am\u00e9ricain des semi-conducteurs. \u00ab\u00a0Nvidia est d\u00e9j\u00e0 dans une situation de quasi-monopole dans le secteur de l\u2019IA\u00a0\u00bb, selon Rapha\u00ebl-David Lasseri, qui illustre cette h\u00e9g\u00e9monie par une m\u00e9taphore : \u00ab\u00a0Dans cette ru\u00e9e vers l\u2019or, Nvidia vend les pelles et est pour l&rsquo;instant le seul vendeur cr\u00e9dible de la plan\u00e8te.\u00a0\u00bb<\/p>\n\n\n\n<p>Et la vente de pelles rapporte gros \u00e0 la firme am\u00e9ricaine : cette position de premier plan a propuls\u00e9 l&rsquo;action de Nvidia vers des sommets boursiers, avec environ +250 % sur un an et m\u00eame +80 % depuis d\u00e9but 2024. Le groupe de Santa Clara est pass\u00e9 devant Amazon en mati\u00e8re de capitalisation boursi\u00e8re, arrivant juste derri\u00e8re Microsoft et Apple. Il a m\u00eame franchi le seuil symbolique de 2 000 milliards de dollars de valorisation le 23 f\u00e9vrier. Une situation que n\u2019avaient connue que Microsoft, Apple et le p\u00e9trolier Saudi Aramco avant lui.<\/p>\n\n\n\n<p>Et la mise en vente des puces B200 ne devrait que conforter sa place de leader du secteur. Apr\u00e8s la pr\u00e9sentation de lundi, Kinngai Chan, directeur ex\u00e9cutif et analyste senior chez Summit Insights, a estim\u00e9 qu\u2019avec \u00ab\u00a0le lancement de Blackwell (\u2026) Nvidia va capter encore plus de dollars de d\u00e9penses d&rsquo;investissements qu&rsquo;avec sa pr\u00e9c\u00e9dente g\u00e9n\u00e9ration\u00a0\u00bb de puces. Et il s\u2019attend \u00e0 ce que la multinationale \u00ab\u00a0continue non seulement \u00e0 dominer, mais \u00e0 creuser l&rsquo;\u00e9cart avec ses concurrents dans l&rsquo;IA.\u00a0\u00bb<\/p>\n\n\n\n<p>En plus d\u2019\u00eatre dominant en mati\u00e8re de hardware (composants physiques) avec ses puces, Nvidia tire aussi son \u00e9pingle du jeu sur les softwares (logiciels). \u00ab\u00a0Tous les sp\u00e9cialistes IA utilisent principalement des librairies dont tout l&rsquo;\u00e9cosyst\u00e8me d\u00e9pend de Nvidia. [Cette entreprise] a aujourd\u2019hui la capacit\u00e9 de conduire le d\u00e9veloppement software en fonction de ce qu&rsquo;elle est en capacit\u00e9 de faire d&rsquo;un point de vue hardware\u00a0\u00bb, indique Rapha\u00ebl-David Lasseri.<\/p>\n\n\n\n<p>Outre sa nouvelle puce, la firme a pr\u00e9sent\u00e9 lundi un nouvel ensemble d&rsquo;outils logiciels destin\u00e9s \u00e0 faciliter la vente de mod\u00e8les d&rsquo;IA par les d\u00e9veloppeurs aux entreprises exploitant la technologie du groupe. Une mani\u00e8re pour Nvidia de p\u00e9renniser son \u00ab\u00a0quasi-monopole\u00a0\u00bb pendant encore quelque temps.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>D\u00e9j\u00e0 acteur incontournable du secteur de l\u2019intelligence artificielle, Nvidia a encore envoy\u00e9 un message fort \u00e0 la concurrence. La multinationale am\u00e9ricaine sp\u00e9cialiste des semi-conducteurs a annonc\u00e9, lundi 18 mars, la sortie de sa nouvelle \u00ab\u00a0superpuce\u00a0\u00bb destin\u00e9e \u00e0 accompagner la r\u00e9volution de l&rsquo;intelligence artificielle (IA).<\/p>\n","protected":false},"author":1,"featured_media":1086,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"pgc_sgb_lightbox_settings":"","footnotes":""},"categories":[11],"tags":[12],"class_list":["post-1085","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-simplon-news","tag-tag-simplon-news"],"acf":[],"_links":{"self":[{"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/posts\/1085","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/comments?post=1085"}],"version-history":[{"count":0,"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/posts\/1085\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/media\/1086"}],"wp:attachment":[{"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/media?parent=1085"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/categories?post=1085"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/workforce.simplon.ci\/index.php\/wp-json\/wp\/v2\/tags?post=1085"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}