La gran batalla de la IA entre Estados Unidos y China sigue ardiendo. Cuando Trump eligió a OpenAI como socio estratégico, DeepSeek sorprendentemente irrumpió en el escenario mundial. Su competencia central, el 'modelo de razonamiento', sigue dependiendo de la potencia de la GPU de Nvidia para acelerarse, rápidamente desacreditando todas las noticias que sugieren que las GPU de Nvidia están siendo reemplazadas.
El blog oficial de Nvidia revela que el modelo DeepSeek-R1 permite a los equipos de desarrollo ejecutar complejas operaciones matemáticas y códigos encriptados mientras se protege la privacidad del cliente. Las GPU de la serie GeForce RTX 50 de Nvidia aceleran el rendimiento del modelo de inferencia DeepSeek a una velocidad de cálculo de 3.352 billones de operaciones por segundo.
El nuevo modelo de razonamiento permite que la IA piense y retroalimente.
Los Modelos de Razonamiento ( son un tipo de modelo de lenguaje a gran escala en el que la IA dedica tiempo a 'pensar' y proporciona 'retroalimentación' sobre errores, por lo que se llaman 'razonamiento'. Al igual que los humanos resuelven problemas, la IA resuelve problemas a través de más reflexión, comprensión y retroalimentación. Los Modelos de Razonamiento pueden comprender las necesidades profundas de los usuarios y permiten a la IA proporcionar retroalimentación sobre el proceso de pensamiento del modelo, mejorando aún más la experiencia del usuario y desbloqueando flujos de trabajo de agentes de IA para resolver tareas complejas de múltiples pasos, como análisis de mercado, problemas matemáticos complejos o código, entre otros.
El modelo de inferencia DeepSeek se puede ejecutar rápidamente en la PC RTX AI local de NVIDIA
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
La última novedad de NVIDIA: GeForce RTX 50 con el modelo de aceleración DeepSeek para inferencia en PC local
La gran batalla de la IA entre Estados Unidos y China sigue ardiendo. Cuando Trump eligió a OpenAI como socio estratégico, DeepSeek sorprendentemente irrumpió en el escenario mundial. Su competencia central, el 'modelo de razonamiento', sigue dependiendo de la potencia de la GPU de Nvidia para acelerarse, rápidamente desacreditando todas las noticias que sugieren que las GPU de Nvidia están siendo reemplazadas.
El blog oficial de Nvidia revela que el modelo DeepSeek-R1 permite a los equipos de desarrollo ejecutar complejas operaciones matemáticas y códigos encriptados mientras se protege la privacidad del cliente. Las GPU de la serie GeForce RTX 50 de Nvidia aceleran el rendimiento del modelo de inferencia DeepSeek a una velocidad de cálculo de 3.352 billones de operaciones por segundo.
El nuevo modelo de razonamiento permite que la IA piense y retroalimente.
Los Modelos de Razonamiento ( son un tipo de modelo de lenguaje a gran escala en el que la IA dedica tiempo a 'pensar' y proporciona 'retroalimentación' sobre errores, por lo que se llaman 'razonamiento'. Al igual que los humanos resuelven problemas, la IA resuelve problemas a través de más reflexión, comprensión y retroalimentación. Los Modelos de Razonamiento pueden comprender las necesidades profundas de los usuarios y permiten a la IA proporcionar retroalimentación sobre el proceso de pensamiento del modelo, mejorando aún más la experiencia del usuario y desbloqueando flujos de trabajo de agentes de IA para resolver tareas complejas de múltiples pasos, como análisis de mercado, problemas matemáticos complejos o código, entre otros.
El modelo de inferencia DeepSeek se puede ejecutar rápidamente en la PC RTX AI local de NVIDIA