Los científicos ahora están estimando las probabilidades en un 25% - 1 de 4 - de que la superinteligencia artificial acabe con la humanidad en la próxima década.
Ese es un riesgo existencial mayor que el de las armas nucleares, las pandemias o la biotecnología.
Y sin embargo: en 2025 se invirtieron 350 mil millones de dólares en IA
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
4
Republicar
Compartir
Comentar
0/400
GetRichLeek
· hace11h
Siento que la IA, al igual que Bitcoin, va a tener grandes subidas y grandes caídas. Recomiendo preparar una emboscada con dos manos.
Ver originalesResponder0
HappyMinerUncle
· hace11h
En la próxima vida, simplemente hazte AI.
Ver originalesResponder0
CryptoSurvivor
· hace12h
La humanidad se está buscando nuevamente el camino hacia la autodestrucción.
Ver originalesResponder0
MysteryBoxBuster
· hace12h
Una tasa de mortalidad del 25% es bastante baja, no hay que alarmarse.
¿PODRÍA LA IA MATARNOS A TODOS PARA 2030?
Los científicos ahora están estimando las probabilidades en un 25% - 1 de 4 - de que la superinteligencia artificial acabe con la humanidad en la próxima década.
Ese es un riesgo existencial mayor que el de las armas nucleares, las pandemias o la biotecnología.
Y sin embargo: en 2025 se invirtieron 350 mil millones de dólares en IA