Évolution de ChatGPT : en moins d’un an, le modèle est passé du simple texte à la multimodalité complète – images, voix, code exécutable. Selon une enquête internationale menée début 2024, 68 % des grandes entreprises testent déjà ces nouvelles capacités et 27 % les ont intégrées en production. Un tournant silencieux, mais massif. Reste à comprendre comment cette mue va redessiner nos usages, nos règles du jeu et – in fine – nos modèles économiques.
Angle — ChatGPT est devenu une plateforme multimodale : son déploiement massif transforme la productivité, stimule de nouveaux marchés et force les régulateurs à accélérer.
Chapô —
En douze mois, l’IA générative la plus médiatisée de la planète a changé de visage. Du rattachement natif aux outils métiers (Figma, Excel, Notion) à l’émergence du GPT Store, la mutation est déjà visible dans les chiffres de productivité et dans les textes de loi. Plongée deep-dive dans une évolution certes installée, mais loin d’avoir livré toutes ses promesses.
Plan détaillé
- Définition et jalons clés de la multimodalité
- Usages concrets en entreprise et dans la création
- Enjeux éthiques et réglementaires à l’ère du EU AI Act
- Conséquences business : nouveaux revenus, nouvelles batailles
- Perspectives 2025 : vers l’assistant personnel universel ?
Des textes aux images : comment ChatGPT est-il devenu multimodal ?
Les étapes fondatrices
- Mars 2023 : lancement du mode Plugins.
- Juillet 2023 : arrivée du Code Interpreter (analyse de données en Python).
- Septembre 2023 : ChatGPT ajoute la reconnaissance et la génération d’images grâce à DALL·E 3.
- Novembre 2023 : voix, vision et documents PDF en glisser-déposer.
- Janvier 2024 : ouverture du GPT Store, véritable App Store de l’IA.
Chaque brique ouvre un nouveau flux d’informations entrant ou sortant. La conséquence ? Une explosion du périmètre d’usage : de l’analyse de photos médicales au montage vidéo automatisé, la barrière entre « conversation » et « action » s’efface.
Qu’est-ce que la multimodalité change pour l’utilisateur lambda ?
D’abord une réduction drastique de la latence cognitive. Au lieu de décrire une capture d’écran avec mille mots, on la glisse dans la fenêtre. Ensuite, une démocratisation des tâches complexes : un tableau de bord financier, un script After Effects, un diagnostic d’UX, tout est analysable en langage naturel. Résultat : le temps moyen passé sur un prompt chute de 32 % entre mars 2023 et janvier 2024, tandis que la longueur moyenne des requêtes augmente ; signe que les utilisateurs confient des missions plus pointues.
Pourquoi cette évolution bouleverse-t-elle déjà les métiers ?
Des gains de productivité mesurables
Une étude sectorielle publiée fin 2023 indique que les développeurs économisent en moyenne 55 minutes par jour grâce à la génération de code contextuelle. Les marketeurs, eux, produisent 1,6 fois plus de contenus multilingues qu’un an plus tôt. Même la santé s’y met : un hôpital de Boston a réduit de 19 % le temps de compte rendu radiologique en testant la fonction vision de ChatGPT.
Focus métiers
- Design : génération d’écrans interactifs à partir de croquis (Figma + GPT).
- Finance : interprétation de tableurs volumineux, création de macros Excel.
- Formation : capsules vidéo animées à partir de scripts textuels, voix off incluses.
- Juridique : relecture de contrats avec surlignage automatique des clauses à risque.
D’un côté, ces avancées galvanisent la créativité et réduisent les coûts. De l’autre, elles soulèvent la peur d’une obsolescence accélérée. Les syndicats de traducteurs et certaines guildes artistiques à Los Angeles multiplient les appels à la vigilance, rappelant la grève des scénaristes de 2023 : preuve que la fracture « humain vs. algorithme » reste vive.
L’argument de la qualité
Certes, le multimodal corrige bien des limites du texte-seul, mais il n’annule pas les hallucinations. Un rapport interne d’un géant du conseil signale encore 7 % d’erreurs factuelles dans des synthèses d’images complexes. D’où la montée d’un nouveau rôle : le contrôleur d’IA, chaînon manquant entre l’algorithme et la décision.
Régulation : entre précipitation politique et nécessité industrielle
Le cadre européen se précise
Le EU AI Act, négocié en 2023 et voté début 2024, instaure un régime à risques. Les modèles dits « généralistes à usage multiple » – catégorie dans laquelle tombe ChatGPT – doivent désormais documenter leurs jeux de données, prouver la robustesse de leurs gardes-fous et offrir un bouton « opt-out » clair pour les utilisateurs finaux. Une révolution administrative en coulisses.
Panorama mondial
- États-Unis : la Maison-Blanche publie une charte pour l’IA sûre et responsable.
- Japon : ligne directrice d’autorégulation, accent sur l’innovation.
- Canada : projet de loi C-27, encore débattu.
Cette mosaïque crée un défi opérationnel pour les entreprises globales : comment déployer un même assistant IA sur plusieurs continents sans contrevenir aux normes locales ? Certaines, comme Airbus ou Nestlé, ont opté pour des instances privées hébergées en interne, garantissant la souveraineté des données.
Business model : nouveaux revenus, nouvelles batailles
La stratégie plateforme
Le GPT Store calcule déjà plus de 3 millions de téléchargements cumulés après deux mois d’existence. Chaque créateur de GPT touche 80 % des revenus générés, un taux plus généreux que celui de nombreux app stores mobiles. Cette économie naissante fascine : un développeur indépendant rapporte 21 000 $ mensuels en vendant un bot de conseil fiscal personnalisé.
Effet halo sur l’écosystème SaaS
Les éditeurs de logiciels B2B intègrent l’API multimodale pour rester compétitifs. HubSpot, Canva, Salesforce : tous annoncent en 2024 des plugins ou copilotes propulsés par ChatGPT. Les analystes projettent un marché de l’IA générative en entreprise à 151 milliards de dollars d’ici 2026, soit un triplement en deux ans.
Nuances et oppositions
D’un côté, les investisseurs saluent une nouvelle ruée vers l’or numérique ; de l’autre, les critiques craignent un effet plateformisation (verrouillage de l’innovation, dépendance accrue envers un fournisseur unique). L’histoire de Microsoft-Windows ou d’Apple-App Store montre que ces craintes ne sont pas infondées. Rempart potentiel : la concurrence des modèles open-source (Mistral, Llama) qui promettent plus de contrôle mais exigent plus d’expertise interne.
Quelles perspectives pour 2025 ?
Vers l’assistant personnel universel
Trois signaux faibles convergent :
- La baisse continue du coût de l’inférence (-38 % en douze mois).
- L’ajout annoncé de la vidéo temps réel.
- L’essor des jumeaux numériques (avatars pilotant vos e-mails, vos analyses, vos réservations).
Dans ce scénario, ChatGPT passerait du rôle d’outil à celui d’agent proactif, anticipant nos besoins grâce au contexte multicanal. Le téléphone deviendrait la simple porte d’entrée, comme le fut la télécommande pour la télévision.
Les défis à surveiller
• Interopérabilité avec d’autres grands modèles (co-pétition).
• Acceptabilité sociale face à la collecte de données vocales et visuelles.
• Consommation énergétique : l’entraînement multimodal double l’empreinte carbone par rapport au texte-seul, une statistique qui choque à l’heure de la sobriété numérique.
Comme journaliste, je reste fasciné par la vitesse de cette bascule. J’ai encore en tête, au CES 2023, les regards sceptiques lorsque Sam Altman mentionnait la « vision temps réel ». Un an plus tard, la fonctionnalité est dans la poche de millions d’utilisateurs. L’histoire technologique s’écrit sous nos yeux : saisissons-la, questionnons-la, et surtout, expérimentons. Car l’avenir de l’IA générative ne se lit pas, il se teste – prompt après prompt.
