Êtes-vous intéressé par eux OFFRES? Économisez avec nos coupons sur WHATSAPP o TELEGRAM!

ChatGPT vous parle désormais comme un (vrai) être humain et comprend également les nuances émotionnelles

OpenAI a annoncé la version alpha du Le mode vocal avancé de ChatGPT, alimenté parmodèle innovant GPT-4o. Cette fonctionnalité révolutionnaire, qui promet d'offrir réponses audio hyper réalistes, sera dans un premier temps accessible à un petit groupe d'utilisateurs de ChatGPT Plus à partir d'aujourd'hui, dans le but d'étendre la disponibilité à tous les abonnés Plus d'ici l'automne 2024.

Mode vocal : le mode vocal de ChatGPT est officiel

La présentation du mode vocal avec GPT-4o, qui a eu lieu en mai, a suscité un grand intérêt et une admiration du public, grâce à son vitesse de génération extraordinaire et la ressemblance frappante avec une vraie voix humaine, qui a évoqué des comparaisons avec celle de la célèbre actrice Scarlett Johansson.

OpenAI a nié avoir utilisé la voix de l'actrice, puis a retiré la voix de la démo et a annoncé, en juin, un reporter la sortie du mode vocal avancé pour améliorer les mesures de sécurité.

Dans cette phase alpha, certaines des fonctionnalités présentées lors de la mise à jour du printemps, telles que la vidéo et le partage d'écran, ne seront pas incluses et seront introduites ultérieurement. Cependant, un groupe sélectionné d'utilisateurs premium aura accès à la fonctionnalité vocale ChatGPT présentée dans la démo.

Lire aussi: SearchGPT : qu'est-ce que le moteur de recherche OpenAI et comment il fonctionne

Le mode Advanced Voice diffère de la solution audio actuellement proposée par ChatGPT, qui repose sur trois modèles distincts. GPT-4o, grâce à son nature multimodal, est capable de traiter ces tâches sans recourir à des modèles auxiliaires, générant des réponses vocales avec un Latence considérablement réduite. De plus, OpenAI met en évidence la capacité de GPT-4o à percevoir les nuances émotionnelles de la voix, comme la tristesse et l'excitation, et reconnaître le chant.

Pour assurer un suivi attentif de l'utilisation vocale de ChatGPT, OpenAI a opté pour un libération progressive. Les membres du programme Alpha recevront une notification dans l'application ChatGPT, suivie d'un e-mail contenant des instructions d'utilisation de la fonctionnalité.

Les capacités vocales du GPT-4o ils ont été testés dans 45 langues, démontrant l'engagement d'OpenAI à rendre cette technologie accessible à un large public international. De plus, la société a mis en place de nouveaux filtres pour empêcher les demandes de création musicale ou tout autre matériel audio protégé par le droit d'auteur, protégeant ainsi la propriété intellectuelle.

Le mode vocal amélioré de ChatGPT sera initialement limité à quatre voix prédéfinies par ChatGPT : Juniper, Breeze, Cove et Ember, créés en collaboration avec des doubleurs professionnels. ChatGPT n'aura pas la capacité d'imiter les voix d'autres personnes et bloquera toute sortie qui s'écarte de ces voix par défaut, garantissant ainsi une utilisation éthique et responsable de la technologie.

Gianluca Cobucci
Gianluca Cobucci

Passionné de code, de langages et langages, d'interfaces homme-machine. Tout ce qui est évolution technologique m'intéresse. J'essaie de divulguer ma passion avec la plus grande clarté, en m'appuyant sur des sources fiables et non « au premier passage ».

Souscrire
notifier
invité

0 commentaires
Commentaires en ligne
Voir tous les commentaires
XiaomiToday.it
Logo