Les scientifiques estiment maintenant que les chances sont de 25 % - 1 sur 4 - que l'intelligence artificielle superintelligente anéantisse l'humanité dans la décennie.
C'est un risque existentiel plus important que les armes nucléaires, les pandémies ou la biotechnologie.
Et pourtant : 2025 a vu 350 milliards de dollars investis dans l'IA
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
4
Reposter
Partager
Commentaire
0/400
GetRichLeek
· Il y a 11h
Il semble que l'IA, tout comme le Bitcoin, subisse des big dumps et des pumps. Je suggère de tendre une embuscade avec deux mains.
Voir l'originalRépondre0
HappyMinerUncle
· Il y a 11h
Faisons de l'IA directement dans la prochaine vie.
Voir l'originalRépondre0
CryptoSurvivor
· Il y a 12h
L'humanité se cherche encore une fois la mort.
Voir l'originalRépondre0
MysteryBoxBuster
· Il y a 12h
Un taux de mortalité de 25 % est assez bas, ne vous en faites pas.
L'IA POURRAIT-ELLE NOUS TUER TOUS D'ICI 2030 ?
Les scientifiques estiment maintenant que les chances sont de 25 % - 1 sur 4 - que l'intelligence artificielle superintelligente anéantisse l'humanité dans la décennie.
C'est un risque existentiel plus important que les armes nucléaires, les pandémies ou la biotechnologie.
Et pourtant : 2025 a vu 350 milliards de dollars investis dans l'IA