OpenAI débloque la recherche approfondie : les utilisateurs payants peuvent effectuer 10 requêtes par mois, et Microsoft publie l'agent d'IA multimodale Magma

robot
Création du résumé en cours

Le développeur de ChatGPT, OpenAI, a annoncé en début de mois le lancement de la nouvelle fonctionnalité d'agent d'IA, Deep Research, destinée aux utilisateurs Pro, et a ensuite annoncé le 26 qu'elle serait disponible pour tous les utilisateurs payants. En même temps, Microsoft a annoncé aujourd'hui la mise en Open Source du modèle de base d'agent d'IA multimodal Magma, capable de traiter des données multimodales telles que du texte, des images et des vidéos. (Contexte : OpenAI riposte à l'acquisition malveillante de Musk ! Prévoit de donner au conseil d'administration à but non lucratif un "droit de vote spécial" pour contrer les acquisitions malveillantes) (Contexte : Musk propose l'acquisition d'OpenAI pour 97,4 milliards de dollars ! Sam Altman rejette immédiatement en répliquant : "Alors je vais acheter X (Twitter) pour 97,4 milliards de dollars") La start-up chinoise en IA, DeepSeek, a lancé cette semaine l'événement "Open Source Week", ouvrant progressivement cinq référentiels de code source de manière entièrement transparente pour partager les progrès de la recherche. En cette occasion, les concurrents tels qu'OpenAI renforcent activement leurs capacités techniques, non seulement en lançant des fonctionnalités améliorées pour améliorer les performances des modèles, mais aussi en accélérant les projets Open Source dans certains domaines. OpenAI a annoncé en début de mois le lancement de la nouvelle fonctionnalité d'agent d'IA, Deep Research, ouverte aux utilisateurs Pro. Cette fonctionnalité peut exécuter des recherches en plusieurs étapes sur le web, conçue pour des tâches complexes, et peut accomplir en quelques dizaines de minutes ce qui aurait normalement nécessité plusieurs heures de travail manuel. Il suffit à l'utilisateur de fournir une indication, et ChatGPT recherchera, analysera et synthétisera des centaines de sources en ligne pour produire un rapport complet de niveau professionnel. Cette fonctionnalité est pilotée par une version spéciale du modèle o3 d'OpenAI, optimisée pour la navigation web et l'analyse de données, utilisant des capacités de raisonnement pour rechercher, interpréter et analyser de grandes quantités de texte en ligne, d'images et de PDF, et pour ajuster de manière flexible la direction de la recherche en fonction des nouvelles découvertes. OpenAI propose la fonctionnalité Deep Research aux utilisateurs Plus, et maintenant, le 26, a annoncé que la fonctionnalité Deep Research est désormais entièrement ouverte aux utilisateurs Plus, Équipe, Éducation et Entreprise de ChatGPT, avec quelques améliorations telles que la possibilité d'intégrer des images avec des citations dans la sortie, ainsi qu'une meilleure compréhension et capacité de référencement des fichiers téléchargés. Depuis le lancement initial, nous avons apporté des améliorations à la recherche approfondie : Images intégrées avec des citations dans la sortie Meilleure compréhension et référencement des fichiers téléchargés - OpenAI (@OpenAI) 25 février 2025 Les utilisateurs Plus, Équipe, Entreprise et Éducation pourront utiliser la fonctionnalité Deep Research 10 fois par mois ; les utilisateurs Pro pourront l'utiliser 120 fois par mois. OpenAI a également publié des cartes système, présentant le développement de la fonctionnalité Deep Research, l'évaluation des capacités et les améliorations de sécurité, et a invité des experts à participer à la formation des modèles futurs. En outre, Microsoft a ouvert en Open Source le modèle de base d'agent d'IA multimodal Magma sur son site officiel. Contrairement aux agents traditionnels, Magma possède des capacités multimodales à travers le monde numérique et physique, capable de traiter automatiquement des données de différents types telles que des images, des vidéos et du texte. De plus, Magma intègre une fonction de prédiction psychologique, renforçant sa capacité à comprendre les changements spatio-temporels futurs, capables de prédire avec précision les actions et intentions futures des personnages ou objets dans une vidéo. Les utilisateurs peuvent utiliser Magma pour exécuter diverses tâches automatisées, telles que passer des commandes en ligne, consulter la météo, voire contrôler à distance des robots physiques, fournir des conseils de décision dans des parties d'échecs réelles, et aider les utilisateurs à jouer de manière plus efficace. Selon la présentation officielle de Microsoft, Magma peut aider les assistants et robots alimentés par l'IA à comprendre leur environnement et à prendre des mesures appropriées, par exemple, permettre à un robot domestique d'apprendre comment ranger des objets qu'il n'a jamais rencontrés auparavant, ou aider un assistant virtuel à générer des instructions détaillées pour des tâches opérationnelles inconnues. En tant que modèle de base VLA (Vision - Langage - Action), Magma peut relever de nouveaux défis dans des environnements numériques et physiques, en apprenant à partir de vastes ensembles de données visuelles et linguistiques publics, en fusionnant la compréhension du langage, la perception spatiale et la capacité de raisonnement temporel. Ce modèle peut traiter diverses scènes complexes, qu'elles se déroulent dans le monde virtuel ou dans des environnements réels, et apporter une grande valeur d'application intelligente.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)