">
Knowledge Management

Au-delà de la hype : Les vrais progrès de l'IA que vous avez peut-être manqués

AF
Admin Faciliter
| | 6 min read | French

L'enthousiasme autour de l'IA semble s'être calmé, alimentant les rumeurs d'un plateau technologique. Pourtant, des avancées majeures se déroulent en coulisses. Le coût a chuté de dix fois, et les modèles multimodaux traitent désormais jusqu'à 2 millions de tokens en une seule fois.

Au-delà de la hype : Les vrais progrès de l'IA que vous avez peut-être manqués
Ces derniers temps, beaucoup ont remarqué une accalmie dans les annonces révolutionnaires sur l'IA, surtout si on les compare aux sorties monumentales de GPT-3 en 2020 ou de GPT-4 en 2023. L'attente autour de GPT-5 a atteint un tel paroxysme qu'elle pourrait facilement inspirer une série Netflix. Les conversations bruissent de l'idée que l'IA pourrait avoir atteint un plateau, se trouvant au sommet du cycle de la hype de Gartner. Cela a alimenté les spéculations selon lesquelles, dans les prochaines années, l'enthousiasme s'estompera, la bulle d'investissement pourrait éclater, et nous retournerons à notre vie quotidienne, rejetant tout cela comme un simple rêve éphémère — ou cauchemar, selon la personne à qui vous le demandez.

Mais voici le fait : des avancées plus significatives ont eu lieu au cours de l'année écoulée que la plupart des gens ne le réalisent.

Avant toute chose, le coût d'exécution de l'IA générative a chuté — divisé par dix en seulement un an. Cela s'explique en grande partie par le fait que les grands modèles deviennent plus petits et mieux optimisés, alors même que leur capacité à analyser et à répondre continue de s'améliorer. Les avancées matérielles jouent également un rôle crucial, les entreprises mettant constamment à jour la technologie utilisée pour entraîner et exécuter ces modèles. L'ascension de NVidia, devenue l'une des entreprises les plus valorisées au monde, en est la preuve, mais ne négligeons pas les perturbateurs de niche comme Grok. Cette évolution continue est cruciale car elle ouvre la voie à l'utilisation de l'IA dans des applications où le coût et la vitesse de traitement sont primordiaux.
La qualité de l'IA a également fait un bond en avant : de meilleures bases de connaissances, des capacités multilingues et moins d'hallucinations. Les données utilisées pour entraîner ces modèles ont été méticuleusement optimisées et nettoyées, grâce aux générations précédentes d'IA. Nous générons et affinons désormais des milliards de points de données pour entraîner de nouveaux modèles, une tâche si colossale que seule l'IA peut s'en charger. Les modèles d'aujourd'hui sont plus fiables, fonctionnent dans plusieurs langues et pays, et fournissent des réponses plus rapides et plus précises.

Un autre développement passionnant est l'essor des modèles multimodaux. Ces modèles ne se contentent pas de comprendre le texte ; ils peuvent désormais interpréter des images, des vidéos, des sons et même des entrées vocales. Cela élargit considérablement le champ des cas d'usage potentiels et prépare le terrain pour que les futurs modèles soient entraînés sur bien plus que du simple texte, comme c'était la norme auparavant.

L'IA générative a également étendu sa capacité à traiter des données dans le cadre d'une seule requête ou d'un seul prompt. Il y a tout juste un an, 32K tokens étaient la norme, assez pour couvrir une portion de texte non négligeable. Mais aujourd'hui, des modèles comme Google Gemini peuvent analyser jusqu'à 2 millions de tokens en une seule fois — nous parlons de traiter un film entier ou l'équivalent d'une bibliothèque de données en un seul prompt. Ce bond dans la longueur du contexte était nécessaire pour s'adapter à l'évolution des capacités multimodales.

Un token est un petit morceau de texte, comme un mot ou une partie de mot, que les modèles d'IA utilisent pour comprendre et traiter le langage. Il peut être étendu aux images ou à l'audio en tant que petite partie des données.
De plus, la mise en cache du contexte (context caching) est apparue comme une véritable révolution. Avec la capacité de traiter de vastes quantités de données sans nécessiter d'entraînement spécifique ou de recherches de données externes (comme la génération augmentée par la recherche ou RAG), le défi consistait à gérer le temps et le coût associés au traitement de contextes aussi étendus. La solution ? La mise en cache. Une fois qu'un modèle a analysé un grand ensemble de données, il est sauvegardé en mémoire pour faciliter de multiples requêtes utilisant le même contexte. Cette innovation économise de la puissance de calcul, accélère les réponses, réduit les coûts et rend les évolutions multimodales et à grand contexte plus pratiques pour une utilisation dans le monde réel.

Aussi impressionnantes que soient les capacités d'interaction de l'IA, semblables à celles des humains, la véritable magie opère lorsque ces modèles s'intègrent dans le monde numérique — au sein d'applications SaaS ou d'usines numériques, par exemple. Pour cela, nous avons besoin de modèles qui comprennent les informations structurées et peuvent interagir de manière fluide avec les interfaces informatiques (API). C'est là qu'intervient l'« appel de fonction » (function calling), où les modèles reçoivent un contexte sur les types de services auxquels ils peuvent accéder et sont ensuite capables d'utiliser ces services. L'application évidente ici est la recherche sur le web ou sur un intranet, mais cela va beaucoup plus loin. Ces modèles peuvent désormais interagir avec presque n'importe quelle application informatique ou basée sur le cloud, débloquant de nouvelles possibilités infinies.

L'évolution des capacités de raisonnement et de codage de l'IA est une autre étape cruciale. Bien que générer un poème soit amusant, cela n'a pas beaucoup de valeur commerciale. Cependant, un modèle capable de comprendre un problème, de traiter des cahiers des charges, de planifier et d'exécuter des actions, et même de générer du code à la volée pour résoudre des problèmes, change la donne pour les entreprises.

Je pourrais continuer — sur l'essor d'excellents modèles open source de Meta, Mistral, Microsoft et d'autres, ou sur des modèles spécialisés qui excellent dans des tâches spécifiques, ou même sur des modèles plus petits qui peuvent désormais fonctionner sur les derniers smartphones équipés de matériel dédié aux réseaux de neurones. Mais le cœur de mon argument est le suivant : les changements que nous avons vus au cours de l'année écoulée sont tout aussi cruciaux pour l'adoption de la technologie de l'IA que n'importe quelle nouvelle percée tape-à-l'œil. Ces développements indiquent que l'IA gagne en maturité et est désormais prête à être intégrée dans les applications d'entreprise. Il faudra du temps aux entreprises pour saisir pleinement le potentiel de cette technologie et repenser leurs applications pour l'exploiter, mais l'heure du véritable changement — au-delà de la simple hype ou du buzz — est arrivée.

Et pendant que nous sommes occupés à implémenter cette technologie incroyable dans nos applications, qui a déjà le potentiel de bouleverser une grande partie de nos vies professionnelles, soyez assurés que les laboratoires et les entreprises travaillent d'arrache-pied sur la prochaine génération. Ces avancées pourraient apporter un nouvel engouement au monde, ouvrant peut-être même la voie à l'IAG (Intelligence Artificielle Générale) ou à la superintelligence. Mais il n'y a pas lieu d'être impatient. La révolution est déjà là.

Share this article

Related Articles