Accueil / Intelligence / OpenAI réorganise certaines équipes pour développer des produits matériels d’IA basés sur l’audio

OpenAI réorganise certaines équipes pour développer des produits matériels d’IA basés sur l’audio

OpenAI réorganise certaines équipes pour créer des produits matériels d’IA basés sur l’audio

OpenAI, l’entreprise qui a développé les modèles et produits associés à ChatGPT, prévoit d’annoncer un nouveau modèle de langage audio au premier trimestre 2026, et ce modèle constituera une étape intentionnelle vers un dispositif matériel physique basé sur l’audio, selon un rapport publié par The Information.

Citant diverses sources familières avec ces plans, dont des employés actuels et anciens, The Information affirme qu’OpenAI a pris des mesures pour regrouper plusieurs équipes d’ingénierie, de produit et de recherche sous une seule initiative axée sur l’amélioration des modèles audio, que les chercheurs de l’entreprise estiment en retard par rapport aux modèles utilisés pour le texte écrit en termes de précision et de rapidité.

Ils ont également constaté que relativement peu d’utilisateurs de ChatGPT optent pour l’interface vocale, la plupart préférant l’interface texte. L’espoir pourrait être qu’une amélioration substantielle des modèles audio pourrait modifier le comportement des utilisateurs vers les interfaces vocales, permettant de déployer les modèles et produits sur une gamme plus large d’appareils, comme dans les voitures.

OpenAI prévoit de lancer une gamme d’appareils physiques dans les années à venir, en commençant par un appareil axé sur l’audio. Les personnes au sein de l’entreprise ont discuté de diverses formes pour les futurs appareils, notamment des enceintes intelligentes et des lunettes, mais l’accent sur toute la gamme est mis sur les interfaces audio plutôt que sur celles basées sur des écrans.

L’entreprise n’est pas seule. Ses concurrents, dont Google, Meta, Amazon et d’autres, ont de plus en plus orienté leurs efforts de recherche et développement vers des produits et technologies axés sur les interfaces vocales et audio, comme l’engagement de Meta dans les lunettes intelligentes.

Ce n’est bien sûr pas la première fois qu’une telle initiative se produit ; il y a eu l’essor des appareils assistants vocaux Alexa, Google Assistant et, dans une moindre mesure, Siri il y a quelques années. Ces assistants ont été relativement populaires auprès de certains sous-ensembles d’utilisateurs, généralement des consommateurs technologiques occasionnels plutôt que des technologues passionnés.

Cependant, les appareils présentaient des limitations importantes. De nouvelles approches basées sur de grands modèles de langage pourraient ouvrir de nouvelles possibilités et de nouveaux risques.

Certains développeurs de produits d’IA, dont l’ancien directeur du design d’Apple Jony Ive, estiment que les produits à commande vocale sont susceptibles de créer moins de dépendance que ceux basés sur des écrans et ont déclaré que c’était une raison de poursuivre les interfaces audio, bien qu’ils n’aient généralement pas cité de preuves fiables à ce sujet.

Le premier appareil physique axé sur l’audio d’OpenAI devrait actuellement être commercialisé dans environ un an, mais nous ne savons pas encore grand-chose sur son apparence.

Répondre

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *