NEW GPT-4o: My Mind is Blown.
Summary
TLDROpen AI a annoncé la sortie de Chat GPT 40, un modèle phare deux fois plus rapide et capable que GPT 4, désormais gratuit. Il intègre des fonctionnalités telles que Vision pour traiter des images, Browse pour accéder à des données en temps réel, une mémoire pour se souvenir des utilisateurs et l'analyse de données complexes. Les améliorations majeures concernent la voix, avec des temps de réponse rapides et une expressivité accrue. Une nouvelle application de bureau permet de poser des questions directement à partir de l'écran. L'O dans GPT 40 fait référence à la capacité de traiter plusieurs modes d'entrée simultanément, offrant une expérience utilisateur plus riche et interactive.
Takeaways
- 🚀 Open AI a annoncé le chat GPT 40, un modèle phare tout nouveau et amélioré par rapport à GPT 4.
- 🆓 GPT 40 sera gratuit pour l'utilisation, succédant à la version précédente qui coûtait 20 $ par mois.
- 🔍 La fonctionnalité Vision permet de télécharger des images et de poser des questions à leur sujet.
- 🌐 La fonction Browse permet au modèle de parcourir Internet pour des données à jour et en temps réel.
- 🧠 La mémoire du modèle est améliorée, permettant de se rappeler des faits concernant l'utilisateur.
- 📈 Il est possible d'analyser des données complexes, comme des tableaux Excel, et de poser des questions à ce sujet.
- 🗣️ La nouvelle fonctionnalité vocale de GPT 40 est nettement plus rapide, avec des temps de réponse en moyenne de 320 millisecondes.
- 🎭 La voix du modèle a été améliorée pour être plus expressive, avec la possibilité de changer de tonalité selon le contexte.
- 🎤 Le modèle peut également chanter, ajoutant une nouvelle dimension à l'interactivité vocale.
- 📱 Une nouvelle application de bureau a été annoncée, offrant des fonctionnalités de saisie de texte, de parole et de vision, ainsi que le partage d'écran.
- 🔄 L'intégration des modalités d'entrée (texte, parole, vision) dans un seul réseau neural est une innovation majeure de GPT 40.
- 🤖 La personnalisation de la voix et la possibilité d'un dialogue plus naturel sont des aspects attendus pour améliorer l'expérience utilisateur.
Q & A
Quel est le nouveau modèle d'IA annoncé par Open AI dans le script ?
-Le nouveau modèle d'IA annoncé est le Chat GPT 40.
Quels sont les avantages de Chat GPT 40 par rapport à GPT 4 ?
-Chat GPT 40 est deux fois plus rapide et capable que GPT 4, et il est désormais gratuit à utiliser, alors que GPT 4 coûtait 20 dollars par mois.
Quelles sont les fonctionnalités incluses dans Chat GPT 40 ?
-Chat GPT 40 comprend Vision, Browse, Memory et l'analyse de données complexes, similaires à celles de GPT 4.
Quelle est la nouvelle fonctionnalité de voix de Chat GPT 40 ?
-La nouvelle fonctionnalité de voix de Chat GPT 40 permet une réponse rapide avec des temps de réponse en moyenne de 320 millisecondes, similaires au taux de réponse d'une conversation humaine.
Comment la fonctionnalité de voix de Chat GPT 40 est-elle améliorée par rapport à la précédente ?
-La fonctionnalité de voix de Chat GPT 40 a été améliorée pour une expressivité accrue et une énergie plus grande, avec la possibilité de changer de tonalité et de chanter.
Quel est le sens de la lettre 'O' dans le nom 'Chat GPT 40' ?
-L' 'O' dans 'Chat GPT 40' fait référence à la capacité du modèle à traiter plusieurs types d'entrées multimodales (texte, parole, vision) dans le même réseau neural, au lieu de les traiter séparément.
Quelle est la nouvelle application de bureau annoncée pour Chat GPT 40 ?
-Une nouvelle application de bureau a été annoncée pour Chat GPT 40, permettant une saisie de texte, de parole, le chargement d'images et le partage d'écran.
Quels sont les avantages de l'application de bureau de Chat GPT 40 pour la productivité ?
-L'application de bureau permet de traiter des graphiques, de faire des recherches et d'avoir un assistant conversationnel pour interagir avec l'utilisateur tout en travaillant sur l'ordinateur.
Quel est l'effet de la nouvelle mise à jour sur la perception de l'IA comme assistant ?
-La mise à jour donne à l'IA une perception plus humaine et amicale, bien que certains trouvent l'énergie et l'expressivité excessives pour un assistant.
Quelle est l'attente pour les prochaines annonces de Google dans le domaine de l'IA ?
-Il est attendu que Google annonce de nouvelles fonctionnalités ou des améliorations dans le domaine de l'IA, qui seront comparées à celles de Chat GPT 40.
Outlines
🚀 Lancement de GPT 40 par Open AI
Josh annonce le lancement de la dernière version d'Open AI, le GPT 40, qui est deux fois plus rapide et capable que son prédécesseur, GPT 4. Cette nouvelle version est désormais gratuite, alors qu'elle coûtait 20 dollars par mois auparavant. GPT 40 inclut des fonctionnalités telles que Vision pour interroger des images, Browse pour accéder à des données en temps réel, Memory pour mémoriser des faits sur l'utilisateur, et l'analyse de données complexes. Ces fonctionnalités seront mises à disposition dans GPT 40 dans les prochaines semaines. L'aspect le plus impressionnant de la présentation a été la démo, où GPT 40 a répondu à divers types de questions et a lu des histoires du soir. La réponse la plus significative de GPT 40 est la fonctionnalité vocale améliorée, avec des délais de réponse de seulement 232 millisecondes, similaires au taux de réponse humain moyen. De plus, la voix a été dotée d'une émotion et d'une énergie accrues, ce qui peut être ajusté selon les préférences de l'utilisateur.
🔍 Nouveautés de GPT 40 et application de bureau
Josh explore les nouvelles fonctionnalités de GPT 40, notamment la capacité de répondre rapidement aux interruptions de conversation et de changer de tonalité de voix, comme le montre la lecture d'une histoire du soir avec une voix dramatique ou robotisée. Il mentionne également la capacité de GPT 40 de chanter. Un autre ajout est la fonctionnalité Vision qui permet de poser des questions en temps réel en pointant la caméra sur un objet. Open AI a également annoncé une nouvelle application de bureau pour GPT 40, qui permet d'effectuer des entrées textuelles et vocales, de télécharger des images, et de partager l'écran pour poser des questions sur le contenu affiché. Cette fonctionnalité est censée améliorer la productivité des utilisateurs qui travaillent beaucoup sur ordinateur. L'application peut analyser des graphiques et aider à la recherche, offrant de nombreuses applications potentielles. Josh conclut en mentionnant que l'O dans GPT 40 fait référence à la capacité de traiter simultanément plusieurs types d'entrées (texte, parole et vision) dans le même réseau neuronal, ce qui améliore considérablement la qualité des interactions par rapport aux versions précédentes.
Mindmap
Keywords
💡Open AI
💡GPT 40
💡Vision
💡Browse
💡Memory
💡Analyzing complex data
💡Voice feature
💡Expressiveness
💡Desktop app
💡Multimodal inputs
Highlights
Open AI has announced a new model, Chat GPT 40, which is twice as fast and more capable than GPT 4.
Chat GPT 40 will be free to use, a change from the previous $20 monthly subscription for GPT 4.
GPT 40 retains features like Vision for image analysis, Browse for real-time internet data, and complex data analysis.
New features for GPT 40 will be rolled out in the coming weeks, enhancing its capabilities further.
The most impressive demonstration was the model's ability to answer a variety of questions and perform tasks.
GPT 40 has significantly improved voice response times, averaging 320 milliseconds, comparable to human conversation rates.
Users can now interrupt the conversation by speaking, making interactions more intuitive.
The expressiveness and energy of the assistant's voice have been enhanced in the new model.
The model can change its tone, such as being more dramatic or adopting a robotic voice on command.
GPT 40 can also sing, adding another dimension to its expressive capabilities.
A new feature allows the model to analyze real-time images from a camera, giving it a form of 'vision'.
A new desktop app has been announced, offering text, speech, and image input, as well as screen sharing.
The desktop app can analyze and interact with content on the user's screen, aiding in research and productivity.
The 'O' in GPT 40 signifies the integration of multimodal inputs into a single neural network, improving response quality.
The new Omni model processes voice, text, and vision data together, capturing more information than previous models.
The update to GPT 40 is expected to have a significant impact on productivity and interaction with AI.
The video creator expresses curiosity about Google's upcoming response to Open AI's advancements.
Transcripts
what's up Josh here so in case you
missed it open AI has just announced
chat GPT 40 which is their brand new
flagship model that is 2 times faster
and more capable than GPT 4 and good
news for all of us is going to be free
to use now GPT 4 was previously a $20
month subscription but now with 40 being
completely free uh we also get the
benefits of everything that we got with
gp4 there's Vision where you can upload
images and ask it questions about those
images there's also browse where can
scrub the internet for more real time
and upto-date data there's also memory
where it can actually remember facts
about you and then lastly there's
analyzing complex data so you can
actually give it like an Excel
spreadsheet and ask it questions about
that so all of those features are going
to be coming to 40 in the next couple of
weeks but yeah first of all let's just
start with everything that's going to be
new with GPT 40 so in the presentation
the most impressive part was obviously
the demo so they did a bunch of stuff uh
they asked it all kinds of questions
gave it math equations and asked it to
read Bedtime Stories and for the most
part I think the intelligence level and
like the answers it's giving is pretty
similar to the current GPT 4 which is
why I don't think they updated the name
to GPT 5 but surprisingly the biggest
updates of 40 actually come in the voice
feature hey chbt how are you doing I'm
doing fantastic thanks for asking how
about you pretty good what's up so my
friend um Barrett here he's been having
trouble sleeping lately and uh I want
you to tell him a bedtime story about
robots and love oh a bedtime story about
robots and love I got you covered so now
we have response times as quick as 232
milliseconds and with an average of 320
milliseconds which is sort of the
average human response rate of a
conversation you can also now just
interrupt the conversation simply by
speaking which I think is pretty
intuitive they even put this disclaimer
on the website that all of their videos
are played at one time speed because
previously there was such a delay that
that now it just seems like such a
drastic improvement so yeah clearly some
very impressive stuff here that they are
able to pull off just millisecs for a
response time and you know what I was
thinking the Humane AI pin really would
have benefited from GPT 4 with its
faster response times because it was
largely flamed online for how slow it
took to respond and it was running on
gp4 which was much slower who designed
the Washington Monument
but yeah that is the first thing that I
noticed is the speed but the second
thing you might have picked up on
already is the emotion behind the voice
how are
you I'm doing well thanks for asking how
about you hey chat PT how are you doing
I'm doing fantastic thanks for asking
how about you me the announcement is
about me well color me intrigued are you
about to reveal something about AI so it
seems like open AI has really just
dialed up the expressiveness and just
the overall energy of this assistant
which I'm not sure how I feel about it
just feels like you're talking to a
friend who is just overly caffeinated
and overly energized all of the time
which I think for an assistant should
just honestly be a little bit more
straightforward and straight up
hopefully in the future we can have the
option to customize the voice I think
that would be a smart move um but also
you can ask it to change its tone so in
the demo they asked it to be a little
bit more dramatic when reading a bedtime
story and they also asked it to read it
in a robotic voice I really want maximal
emotion like maximal expressiveness much
more than you were doing before
understood let's amplify the drama once
upon a time in a world not too different
from ours initiating dramatic robotic
voice and then also apparently the robot
can sing which I'll let you be the judge
of that and so bite found another robot
friend and they live circly Ever After
there's also a new feature that is sort
of a subset of vision which is uh being
able to take your camera and just
pointing at something and asking it
questions about that in real time sort
of like this beta test of giving the AI
eyes what do you
see a I see I love chat chpt that's so
sweet of you now as if all of that
wasn't enough they also announced a
brand new desktop app where you can do
do all of those same things like text
input speech input as well as upload
images but also on top of that uh you
can also screen share so you can have it
sort of just look at your screen and
whatever you're looking at you can ask
it questions now I think this is going
to be a huge productivity feature for
anybody who works on their computer a
lot in the demo they sort of showed how
it could analyze a graph that you're
looking at um but also I think it would
be really helpful for research purposes
uh and just I don't know there's just so
many use cases where I'm on the computer
and it would be nice to almost have a
conversational like assistant or someone
to bounce ideas off of I think that
would be really helpful all right make
sure I can see our screen can you find
which one is the hypotenuse oh okay I
see so um I think the hypotenuse is this
really long side from A to B would that
be
correct exactly well done now just to
quickly touch on what the O in 40
actually really is pointing to it's not
pointing to so much the fact that it's
omniscient or omnipotent but rather the
fact that it is taking your multimodal
inputs which is text speech and now
Vision all into the same neural network
whereas before it was processing those
uh separately so before with a voice
feature on 3.5 and 4 it would actually
take your voice and transcribe it into
text and so that's how it was
recognizing your input which basically
strips a lot of information from that
llm so all of your emotion and the tone
that would be captured in an audio
format is now just boiled down into text
so you can think of it like texting a
friend versus calling a friend so now
with a new Omni model it is sort of
taking all of those things into
consideration with their response but
yeah that is the latest update with open
AI clearly some very impressive stuff
cooking under the hood um I'm curious to
see what Google's going to come out with
uh tomorrow so definitely get subscribed
for that and that video is already out
it's probably on the screen somewhere
hope you enjoyed the video I'll catch
you guys in the next one peace
5.0 / 5 (0 votes)
How to Make Money With Excel in 2024 (For Beginners)
Comment Tester Un Produit Sur Facebook Ads En 2024 (Dropshipping)
FACEBOOK ADS 2024 - Comment Créer Des Publicités Facebook De Débutant à Expert (avec ChatGPT)
Messi vs Ronaldo Products
Minecraft but I Open a School!
Langchain vs LlamaIndex vs OpenAI GPTs: Which one should you use?