La compagnie OpenAI a lancé avec fierté la version 4.5 de ChatGPT à la fin-février, la décrivant comme « meilleure » et plus puissante que jamais. Mais les observateurs —et le patron d’OpenAI lui-même— ont reconnu que l’application manquait de capacité informatique pour continuer à croître à la même vitesse qu’avant. Et si ces compagnies étaient en train de frapper un mur?
La question n’est pas seulement posée à cause de ChatGPT 4.5 ou de l’éventuel ChatGPT 5.0 que plusieurs attendaient dès cet hiver. La question a été soulevée à la fin-janvier, lors de l’arrivée sur le marché d’un concurrent chinois, DeepSeek, dont l’IA générative a coûté moins cher à concevoir et nécessite beaucoup moins de puissance informatique —tout en étant gratuit pour ses usagers. Serait-il possible, demande par exemple le magazine de vulgarisation The New Scientist, que nous assistions « à la fin des rapides progrès de cette technologie et peut-être même à l’éclatement d’une bulle? »
Les compagnies comme OpenAI sont avares de détails sur la puissance informatique dont elles disposent. Mais chose certaine, lors du lancement, le 27 février, de ChatGPT 4.5, le président Sam Altman n’a pas caché qu’il s’agissait d’un « modèle coûteux » et que la compagnie arrivait au maximum de ses capacités en matière de GPU (Graphics Processing Unit), soit les puces informatiques qui donnent aux ordinateurs leur capacité à traiter ces quantités astronomiques de données.
Un phénomène prévisible
Les signaux d’alarme étaient là depuis un bout de temps. En avril 2023, Gary Marcus, professeur de psychologie et de sciences neuronales à l’Université de New York, disait croire que les « larges modèles de langage », comme ChatGPT, entraient d’ores et déjà dans une « période de rendements décroissants ». D’une part, à cause de cette croissance qui misait un peu trop sur une augmentation ultra-rapide des capacités informatiques de la planète, et d’autre part, à cause des contenus servant à « entraîner » ces applications —littéralement, tous les textes et toutes les images que produisent les humains— contenus qui augmentent moins vite que les besoins des machines.
Et c’est sans compter l’empreinte environnementale croissante, et les fausses nouvelles véhiculées par ces IA. Au terme de l’année 2024, les observateurs constataient que les performances des dernières versions des agents conversationnels —par exemple, aux examens de droit ou de médecine— n’avaient montré aucune avancée spectaculaire par rapport aux versions de 2023.
Mais pour les plus virulents critiques, c’est bien davantage qu’un ralentissement de la croissance. Le journaliste spécialisé en technologies Ryan Broderick en parlait carrément comme d’une arnaque, à la fin-janvier: tous les « grands sages » de la Silicon Valley « ont décidé que l’IA était le futur » et qu’il devait assurément être américain. Ils ont « immédiatement commencé à jeter l’argent des autres dans le fourneau, en promettant que cela apporterait éventuellement la nouvelle révolution dont eux-mêmes, incidemment, étaient les pionniers. Et cette fin de semaine, grâce à DeepSeek, nous avons non seulement appris qu’ils n’avaient jamais besoin de tout cet argent pour construire le futur, mais qu’ils n’étaient même pas aussi bons pour le construire ».
Il peut être trop tôt pour trancher entre les optimistes et les pessimistes. Mais là où ils se rejoignent, c’est pour admettre qu’une croissance de l’IA uniquement basée sur une augmentation ultra-rapide des capacités informatiques n’est pas soutenable. « L’actuelle façon d’entraîner et de déployer les larges modèles de langage est grossièrement inefficace, commente dans le New Scientist Sasha Luccioni, de la compagnie d’IA Hugging Face. « Bien sûr que c’est destiné à frapper un mur. »