OpenAI prévoit un nouveau modèle vocal début 2026 et un appareil audio en 2027
OpenAI, l’entreprise qui a développé les modèles et produits associés à ChatGPT, prévoit d’annoncer un nouveau modèle de langage audio au premier trimestre 2026, et ce modèle constituera une étape intentionnelle vers un appareil physique basé sur l’audio, selon un rapport publié dans The Information.
Citant diverses sources familières avec ces plans, incluant des employés actuels et anciens, The Information affirme qu’OpenAI a pris des mesures pour regrouper plusieurs équipes d’ingénierie, de produits et de recherche sous une seule initiative axée sur l’amélioration des modèles audio, que les chercheurs de l’entreprise estiment être en retard par rapport aux modèles utilisés pour le texte écrit en termes de précision et de rapidité.
Ils ont également constaté que relativement peu d’utilisateurs de ChatGPT choisissent d’utiliser l’interface vocale, la plupart préférant l’interface textuelle. L’espoir est peut-être qu’une amélioration substantielle des modèles audio pourrait modifier le comportement des utilisateurs vers des interfaces vocales, permettant aux modèles et produits d’être déployés dans une gamme plus large d’appareils, comme dans les voitures.
OpenAI prévoit de lancer une gamme d’appareils physiques dans les années à venir, en commençant par un appareil axé sur l’audio. Des personnes au sein de l’entreprise ont discuté de diverses formes pour les futurs appareils, incluant des enceintes intelligentes et des lunettes, mais l’accent dans toute la gamme est mis sur les interfaces audio plutôt que sur celles basées sur des écrans.
L’entreprise n’est pas seule. Ses concurrents, dont Google, Meta, Amazon et d’autres, ont de plus en plus orienté leurs efforts de recherche et développement vers des produits et technologies axés sur les interfaces vocales et audio, comme l’engagement de Meta dans les lunettes intelligentes.
Ce n’est bien sûr pas la première fois qu’une telle initiative se produit ; il y a eu l’essor des appareils d’assistance vocale pilotés par Alexa, Google Assistant et, dans une moindre mesure, Siri il y a quelques années seulement. Ces assistants ont été relativement populaires auprès de certains groupes d’utilisateurs, généralement des consommateurs de technologie occasionnels plutôt que des technologues confirmés.
Cependant, ces appareils présentaient des limitations significatives. De nouvelles approches basées sur de grands modèles de langage pourraient ouvrir de nouvelles possibilités et de nouveaux risques.
Certains développeurs de produits d’IA, dont l’ancien responsable du design d’Apple Jony Ive, estiment que les produits contrôlés par la voix sont susceptibles d’être moins addictifs que ceux basés sur des écrans et ont cité cela comme raison pour poursuivre les interfaces audio, bien qu’ils n’aient généralement pas cité de preuves fiables de cela.
Le premier appareil physique axé sur l’audio d’OpenAI devrait être commercialisé dans environ un an, mais nous ne savons pas encore grand-chose sur son apparence.






