OpenAI desbloqueia Pesquisa Profunda: os utilizadores pagantes podem fazer 10 consultas por mês, a Microsoft lança o agente de IA multimodal Magma

robot
Geração do resumo em andamento

O desenvolvedor do ChatGPT, OpenAI, anunciou o lançamento de uma nova função de agente de IA Deep Research para usuários Pro no início do mês, e anunciou no dia 26 que está totalmente aberto a todos os usuários pagantes, enquanto a Microsoft hoje Código aberto agente de IA multimodal modelo básico Magma pode processar dados multimodais, como texto, imagens e vídeos. (Sinopse: OpenAI rebate aquisição maliciosa de Musk!) Propõe-se dar ao conselho sem fins lucrativos "direitos especiais de voto" anti-aquisição maliciosa) (suplemento de fundo: Musk ofereceu 97,4 bilhões de magnésio aquisiçãoOpenAI!) Sam Altman se recusa a engasgar em segundos: Então eu compro X com 9,74 bilhões de magnésio (Twitter)) A startup chinesa de IA DeepSeek lançou a campanha "Código aberto Week" esta semana, sucessivamente abrindo cinco bibliotecas de código para compartilhar o progresso da pesquisa de forma completamente transparente, em um momento em que a OpenAI e outros concorrentes estão melhorando ativamente sua força técnica, não apenas introduzindo funções aprimoradas para melhorar o desempenho do modelo. Também está acelerando o projeto Código Aberto em algumas áreas. No início deste mês, a OpenAI anunciou o lançamento de um novo recurso de agente de IA, o Deep Research, aberto a usuários Pro, que pode realizar pesquisas em várias etapas na rede, projetado para tarefas complexas, e pode completar horas de trabalho humano em apenas algumas dezenas de minutos. Com apenas um prompt, o ChatGPT pesquisará, analisará e sintetizará centenas de fontes on-line para produzir um relatório completo e de aparência profissional alimentado por uma versão especialmente criada do modelo o3 da OpenAI, otimizado para navegação na web e análise de dados, usando recursos de raciocínio para encontrar, interpretar e analisar grandes quantidades de texto, imagens e PDFs on-line, e ajustar de forma flexível as direções de pesquisa com base em novas informações descobertas. OpenAI lança recursos do Deep Research para usuários como Plus Agora, o OpenAI anunciou ainda no dia 26 que os recursos do Deep Research agora estão totalmente disponíveis para usuários do ChatGPT Plus, Team, Edu e Enterprise, e os recursos do Deep Research fizeram algumas melhorias, como a capacidade de incorporar imagens com citações e melhorar a capacidade de entender e citar arquivos carregados. Desde o lançamento inicial, fizemos algumas melhorias na pesquisa profunda: Imagens incorporadas com citações na saída Melhor compreensão e referência de arquivos carregados — OpenAI (@OpenAI) 25 de fevereiro de 2025 Além disso, os usuários do Team, Enterprise e Edu poderão usar o Deep Research 10 vezes por mês Os usuários Pro poderão usar o Deep Research 120 vezes por mês, a OpenAI também lançará cartões de sistema para introduzir o desenvolvimento de funções de Deep Research, Avaliação de capacidades e melhorias de segurança, e os especialistas são convidados a participar na formação de futuros modelos. Microsoft Código aberto multimodal AI agent basic model Magma Além disso, a Microsoft hoje no site oficial Código aberto multimodal AI agent basic model Magma・Em comparação com os agentes tradicionais, o Magma tem capacidades multimodais nos mundos digital e físico, que podem processar automaticamente diferentes tipos de dados, como imagens, imagens e texto, além disso, o Magma também tem uma função de previsão psicológica integrada para melhorar a compreensão de futuras mudanças espaço-temporais na imagem. Ser capaz de adivinhar com precisão as ações e intenções futuras das pessoas ou objetos no filme. Os usuários podem usar o Magma para executar uma variedade de tarefas automatizadas, como fazer compras on-line, fazer pedidos, verificar o tempo e até mesmo controlar remotamente robôs físicos para fornecer sugestões de tomada de decisão em jogos de xadrez reais para ajudar os usuários a jogar xadrez de forma mais eficaz. De acordo com a introdução oficial da Microsoft, o Magma pode ajudar assistentes ou robôs orientados por IA a entender seus arredores e tomar ações apropriadas, como permitir que robôs domésticos aprendam a organizar objetos que nunca tocaram ou ajudar assistentes virtuais a gerar orientações detalhadas passo a passo para tarefas operacionais desconhecidas. Como um modelo base VLA (Vision-Language-Action), o Magma adapta-se a novos desafios em ambientes digitais e físicos, aprende com vastos materiais visuais e linguísticos públicos e, através da fusão de compreensão da linguagem, perceção espacial e raciocínio temporal, o modelo pode lidar com uma variedade de cenários complexos, seja no mundo virtual ou no ambiente real, pode desempenhar um poderoso valor de aplicação inteligente. Relatórios relacionados O primeiro chip de IA autodesenvolvido da OpenAI deve ser projetado este ano e entregue à TSMC para produção experimental, pode equilibrar o domínio da Huida? Lei de Sam Altman OpenAI CEO: O custo de usar IA cairá 10 vezes a cada ano, e IA será tão barata quanto ar no futuro OpenAI livre e aberta "ChatGPT função de pesquisa" pode ser usada sem registrar uma conta, o Google está em pânico? "OpenAI desbloqueia Deep Research: usuários pagos podem consultar 10 vezes por mês, Microsoft lança agente de IA multimodal Magma" Este artigo foi publicado pela primeira vez no "Dynamic Trend - The Most Influential Bloco Chain News Media" da BlockTempo.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)