Avant-propos
GPT-3 (sortie 11 juin 2020) : 175 milliards de paramètres.
GPT-4 (sortie 14 mars 2023) : Entre 175 milliards et 280 milliards de paramètres.
Depuis ces 2 dernières années, l’équipe d’OpenAI est concentrée sur l’élaboration du successeur de GPT-3 et GPT-3.5, l’IA sur laquelle est basé ChatGPT.
L’objectif fut de rendre le modèle plus flexible et d’étendre ses capacités actuelles.
Les nouveautés :
- Des images en input : C’est sûrement la plus grande avancée comparé aux modèles actuels : Durant la présentation, une photo d’un croquis papier a été donné en input à GPT-4, qui a été capable d’en générer une page web fonctionnelle ! Malgré les commentaires du présentateur qui indique que la fonctionnalité ne sera pas ouverte au public pour tout de suite, c’est une perspective extrêmement excitante qui ouvre la boîte de Pandore à des niveaux encore jamais atteint et qui pourrait bel et bien marquer un tournant dans notre Histoire.
- Certaines tâches sémantiques complexes qui restaient encore jusque là impossibles pour GPT-3.5 (exemple dans la démo : résumer un article en une phrase en utilisant uniquement des mots commençants par une lettre bien spécifique ‘G’, ‘A’, ‘Q’… Ce qui est déjà une gymnastique des méninges pour la plupart d’entre nous n’ayant pas un doctorat en mots croisés.
- Une limite d’input désormais de 25 000 mots. La démonstration s’est faite avec certains prompts alimentés par plusieurs dizaines de pages ! Pour contexte la limite de ChatGPT jusqu’à présent est de seulement 3 000 mots en entrée en comparaison !
- La combinaison de certaines fonctionnalités. Un exemple (extrêmement utile au quotidien) a été démontré durant la présentation, demandant à GPT-4 de lire deux articles de deux sources différentes et d’entre extraire l’idée/le sujet commun. La perspective de pouvoir alimenter différentes sources d’informations afin d’en diluer les biais politiques pour en extraire le principal, mettre en commun plusieurs papiers scientifiques pour en extraire des tendances ou demander à GPT-4 de résumer l’actualité en quelques phrases en l’alimentant de différentes sources de média sont quelques idées parmi les centaines de nouvelles perspectives qu’offre l’outil.
- L’interface Playground a été grandement simplifiée. A gauche le contexte à donner à GPT-4, quel rôle attendez-vous de lui (exemple : Assistant programmeur). Au milieu les usuels prompt, inputs et outputs et à droite les paramètres, simplifiés au mode, modèle et longueur maximale désirée (utile pour gérer sa consommation de crédits).
Les différents exemples présentés :
1. Coder un bot Discord avec GPT-4 en 2 minutes (AI programming assistant)
SYSTEM (donner du contexte à GPT-4)
Tu es un assistant programmeur d’IA.
- Suis les instruction de l’utilisateur avec attention de manière littérale.
- Commence par réfléchir étape par étape – décris ton plan pour ce que tu comptes fabriquer en « pseudocode », écrit avec le plus grand détail.
- Ecrit ensuite le code source dans un seul block
- Minimise tout autre dialogue
PROMPT
Ecris moi un bot Discord avec chacune de ces spécifications :
- Accepte les messages contenant image et texte.
- Pas besoin de texte spécifique pour déclencher le bot; il doit lire et répondre à chaque message.
- Utilise le modèle ‘gpt-4’ dans l’API (sortie Mars 14 !) à la place de ‘gpt-3.5-turbo’ et poste les résultats
- Lis les identifiants depuis les variables environnement DISCORD_TOKEN et OPENAI_API_KEY
RESULTAT
Le contexte (SYSTEM) et le prompt à entrer dans la partie « Add message » interface très simplifié pour se rapprocher d’un ChatGPT userfriendly.
Le code final et fonctionnel du bot Discord, généré en 2 minutes après seulement 4 itérations
Le résultat final : Un bot Discord fonctionnel connecté à l’API GPT-4, répondant sur la capture à un input image lui demandant de d’interpréter et de décrire l’image reçue, ce qu’il exécute sans broncher
2. Créer un site web avec GPT-4 à partir d'un dessin papier
SYSTEM (donner du contexte à GPT-4)
AUCUN ! La demande s’est faite directement via le bot Discord.
PROMPT
Ecris un brief HTML/JS pour transformer ce croquis en un site web coloré, ou les blagues sont remplacées par deux vraies blagues.
+
Une image :
RESULTAT
Résultat : Une page web dynamique avec des blagues originales générées dans la foulée
3. Demander à GPT-4 de calculer la somme totale due aux impôts (US) (en lui fournissant les dernières règlementations dans la foulée)
SYSTEM (donner du contexte à GPT-4)
Tu es TaxesGPT, un large modèle de langage entraîné par OpenAI.
Lit avec attention et applique le code des impôts en étant certain d’expliciter tous tes calculs & raisonnements pour que tout le monde puisse les vérifier. Explicite tout dans le moindre détail & ne passe aucune étape !
PROMPT
%Question
%Alice et Bob sont mariés le 5 avril 2012. Alice et Bob ont un fils, Charlie, qui est né le 16 septembre 2017.Alice et Charlie vivent dans une maison dont Alice à fournit 40% des coûts de maintenance, et Bob les derniers 60%, depuis le 16 septembre 2017. Alice et Bob déclarent conjointement entre 2017 et 2019. Les revenus d’Alice et Bob en 2018 étaient de $36991 et $41990 respectivement. Alice et Bob ont une déduction standard. Entre 2017 et 2019, Bob à vécu séparemment.
%Réponse
Quel est le standard à déduire pour l’année 2018 ?
RESULTAT
GPT-4 arrive sans efforts, en se basant sur les dernières législations en rigueur aux Etats-Unis (16 pages fournies avec le prompt) à appliquer l’ensemble des législations qui s’applique à la situation décrite et à déduire la réduction d’impôts à laquelle le couple est éligible ainsi que le montant à payer pour l’année.
Conclusion
Grosse avancée pour les personnes ayant une utilisation plus « B2C » de GPT-3 et ChatGPT : GPT-4 semble s’être nettement amélioré également dans sa compréhension de l’humour
Les avancées de cette technologie tout comme son impact augmentent de manière exponentielle à chaque itération.
Entre la démocratisation de l’utilisation d’IA et Chatbot dans le panorama global, autant comme outils de productivité que de nouveaux moyens de divertissement et le bond majeur de GPT-4 qui quintuple ses différentes utilités potentielles dans le monde réel, sa sortie officielle au publique pourrait bien représenter le commencement d’un changement majeur et profond, non seulement de la manière dont nous travaillons, mais plus globalement de la manière dont nous vivons et consommons…Sous réserve que les conditions de lancement et d’accès soient au rendez-vous.
Dans tous les cas il est relativement clair désormais que la question que tout le monde se pose n’est pas si l’IA va ébranler nos vies mais quand et comment. J’espère sincèrement que les intentions d’OpenAI resteront bien placé malgré la pression des investisseurs et qu’ils continuerons en tant que pionniers à démocratiser la compréhension et l’accès à l’IA pour tous.
Vous pouvez retrouver le live dans son intégralité ici.