OpenAI a tenu son événement de lancement de printemps mardi à 1 heure du matin, heure de Pékin. L'entreprise a déjà été sous les feux de la rampe pour son "modèle vidéo de Vincennes" Sora, mais n'a pas fait de nouveaux grands pas depuis un certain temps. Lors de cet événement, Mira Murati, directeur technique de l'entreprise, a présenté au public une série de mises à jour et de progrès liés à ChatGPT.
Lors de l'événement de lancement d'OpenAI, deux points forts ont été présentés. Le premier est la dernière version deGPT-4o Grands modèles multimodauxCe modèle n'est pas seulement puissant, mais il est aussi très puissant par rapport à laGPT-4 TurboC'est plus rapide et moins cher.
Le nouveau modèle est tellement plus réactif que lorsque vous l'utilisez en mode vocal, vous constaterez qu'il répond en "temps réel". Cela signifie que vous pouvez communiquer avec ChatGPT comme si vous parliez à une personne réelle - vous pouvez interrompre ChatGPT à tout moment pour demander quelque chose de nouveau ou changer de sujet pendant qu'il vous répond. Plus besoin d'attendre que ChatGPT réponde à votre dernière question avant de continuer, ce qui améliorera grandement votre interaction avec ChatGPT.
Le lancement d'OpenAI a également été l'occasion d'une deuxième annonce importante :Les utilisateurs gratuits de ChatGPT ont désormais accès au nouveau modèle GPT-4o !up. Auparavant, ils ne pouvaient utiliser que la version GPT-3.5, mais ils peuvent désormais profiter de fonctions plus puissantes apportées par GPT-4o, telles que l'analyse de données, l'analyse d'images, la recherche sur Internet et l'accès à la boutique d'applications et à d'autres opérations. Cela attirera sans aucun doute un grand nombre de nouveaux utilisateurs vers la boutique d'applications GPT et offrira de plus grandes opportunités aux développeurs.
en ce qui concerneLes abonnés payants bénéficient d'une limite de messages plus élevée.ce qui, selon OpenAI, est au moins 5 fois supérieur à celui des utilisateurs gratuits. Lorsque les utilisateurs gratuits n'auront plus de messages, ChatGPT reviendra automatiquement au GPT-3.5. En outre, OpenAI prévoit de déployer une expérience vocale améliorée pour les utilisateurs Plus, basée sur GPT-4o, d'ici un mois environ. Bien que l'API GPT-4o n'inclue pas actuellement de fonctionnalité vocale, cette mise à jour permettra aux utilisateurs de bénéficier d'une interaction plus complète et plus intelligente.
Enfin, il y a une bonne nouvelle pour les utilisateurs d'ordinateurs Apple : ilsChatGPT desktop app pour macOS maintenant disponible !OpenAI a également révélé qu'une version Windows de l'application de bureau sera disponible dans le courant de l'année, permettant aux utilisateurs de "photographier" le contenu de leur bureau et de poser directement des questions à ChatGPT. L'application permet aux utilisateurs de "photographier" le contenu de leur bureau à l'aide d'un simple raccourci, puis de poser directement des questions à ChatGPT. OpenAI a également révélé qu'une version Windows de l'application de bureau serait disponible dans le courant de l'année pour permettre aux utilisateurs de Windows de bénéficier du même confort.
Bilan de l'événement de lancement
01h00 : Le compte à rebours s'achève et la diffusion en direct commence. Mira Murati, Chief Technology Officer, entre en scène.
À 01:01, Mira Murati présente les trois points principaux qu'elle abordera aujourd'hui :
1) Elle a commencé par souligner pourquoi un outil gratuit et largement disponible est essentiel pour l'OpenAI.
2) Elle a ensuite indiqué que l'entreprise s'efforçait de réduire les obstacles à l'utilisation de ChatGPT et de faciliter son utilisation par tous. À cette fin, l'entreprise lance une version de ChatGPT pour ordinateur de bureau.
3) Enfin, elle a annoncé que l'entreprise allait lancer un nouveau modèle phare appelé GPT-4o, où le "o" signifie "omni-directionnel", ce qui signifie que le GPT-4o est multimodal et plus puissant.
À 01:05, OpenAI a présenté la nouvelle version desktop de ChatGPT, une application non seulement puissante, mais dont l'interface utilisateur a été entièrement repensée. Pour commencer, les utilisateurs de macOS pourront utiliser l'application dès sa sortie de la boîte, tandis que les utilisateurs de Windows auront également leur version plus tard dans l'année.
01 h 08 : GPT-4o possède non seulement le même niveau d'intelligence que GPT-4, mais il fonctionne également plus rapidement et prend en charge les fonctions texte, audio et vidéo. Il s'agit d'une avancée majeure pour OpenAI en termes de facilité d'utilisation.
01 h 13 : Auparavant, OpenAI devait utiliser les trois modèles - transcription, intelligence et génération de la parole - en même temps en mode vocal, ce qui entraînait des retards importants. MaisGPT-4o traite les images, les fichiers et les sons de manière naturelle pour une expérience plus fluide..
01:17 : En raison de la grande efficacité de la GPT-4o, l'OLa penAI peut désormais offrir un niveau d'intelligence proche de GPT-4 aux utilisateurs libres.
01:19 : Murati insiste à nouveau.La grande efficacité du GPT-4o rend les outils proches du GPT-4 accessibles à tous.La technologie intelligente est à la portée de tous.
01:20 : Il y a maintenant plus d'un million d'applications GPT dans le GPT Store. Avec le GPT-4o gratuit et ouvert, les développeurs de ces applications disposeront d'une base d'utilisateurs beaucoup plus large.
01:22 : Les utilisateurs gratuits pourront également télécharger des images, les analyser et rechercher des informations en temps réel à l'aide de la fonction "navigateur". GPT-4o prendra également en charge une fonction de mémoire et une API pour les développeurs.Comparé au GPT-4 Turbo, le GPT-4o est deux fois plus rapide, moins cher 50%, et a une limite de taux 5 fois plus élevée.
13 h 25 : Deux directeurs de recherche, Mark Chen et Barret Zoph, montent sur scène et présentent une série de nouvelles fonctionnalités.
01h26 : Mark Chen échange des plaisanteries avec ChatGPT, et le robot est capable de comprendre la signification de "nervosité" au son d'un halètement rapide, et lui demande de respirer profondément.
13 h 28 : Chen a expliqué que sa démonstration visait à illustrer le fait que, dans le mode vocal actuel, la fonctionFinies les séances de questions-réponses mécaniques avec la machine.Le processus peut être exécutéCommunication en temps réelFini les "attentes gênantes de 2 à 3 secondes" dans la communication en temps réel. Finies les "attentes maladroites de 2 à 3 secondes" dans la communication en temps réel.
13 h 30 : Dans la démonstration en direct, les présentateurs demandent constamment à ChatGPT de modifier le ton de sa voix, y compris l'intonation exagérée, l'anticipation robotique et l'utilisation d'une narration "chantante".
01:35 : Barret Zoph active sa webcam et demande à ChatGPT de l'aider à résoudre un problème à une équation en temps réel.
13 h 37 : Outre la reconnaissance d'images et la résolution de problèmes, ChatGPT a démontré sa capacité à interagir avec Barret en temps réel en fonction des changements d'images.
01:40 : Barret démontre la capacité de ChatGPT Desktop à interpréter le code et le bureau de l'ordinateur (un graphique de températures) en temps réel.
01:42 : Murati et Mark Chen font la démonstration de ChatGPT pour la traduction croisée en temps réel de l'italien vers l'anglais.
À la fin du lancement, OpenAI a déclaré que le lancement d'aujourd'hui était principalement axé sur les utilisateurs gratuits et que ces fonctionnalités seraient progressivement étendues à tous les utilisateurs au cours des prochaines semaines.
Selon l'annonce faite sur le site web d'OpenAI, GPT-4o sera déployé pour les utilisateurs payants Plus et Team, ainsi que pour les utilisateurs gratuits. La limite de messages pour les utilisateurs Plus sera cinq fois plus élevée que celle des utilisateurs gratuits, et le nombre de messages disponibles pour les utilisateurs Team et Enterprise sera un peu plus élevé. Lorsque les utilisateurs gratuits atteindront leur limite d'utilisation, ChatGPT passera automatiquement à GPT-3.5 afin de poursuivre la conversation.