Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Going Onchain, without going Onchain!
Convert
Aucun frais de transaction ni slippage
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copy
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
Le patron de l'IA de Microsoft prévient que l'IA consciente pourrait être dangereuse

Le patron de l'IA de Microsoft prévient que l'IA consciente pourrait être dangereuse

Cryptopolitan2025/08/22 10:50
Par:By Collins J. Okoth

Lien de partage:Dans cet article : Mustafa Suleyman, PDG de Microsoft AI, a averti que l'idée d'une IA consciente est dangereuse et pourrait nuire aux personnes psychologiquement vulnérables. Suleyman estime que le fait d’offrir une considération morale aux systèmes d’IA avancés crée des problèmes liés à la dépendance et exacerbe les délires. Une équipe de chercheurs en IA a récemment publié un rapport affirmant que la conscience de l’IA pourrait avoir une importance sociale, morale et politique dans les d

Mustafa Suleyman, directeur de l'IA chez Microsoft, a mis en garde contre le danger d'envisager l'idée d'une IA consciente, ajoutant qu'elle pourrait facilement nuire aux personnes psychologiquement vulnérables. Il a souligné que la considération morale pour l'IA avancée créait des problèmes de dépendance susceptibles d'aggraver les délires.

Suleyman a soutenu que traiter l'IA comme un système conscient pourrait introduire de nouvelles dimensions de polarisation et compliquer la lutte pour les droits existants, créant ainsi une nouvelle catégorie d'erreurs pour la société. Le responsable de l'IA chez Microsoft a affirmé que les citoyens pourraient commencer à réclamer des protections juridiques pour l'IA s'ils estiment que les IA peuvent souffrir ou ont le droit de ne pas être arbitrairement désactivées.

Suleyman craint que la psychose de l'IA ne pousse les gens à défendre avectronles droits de l'IA, le bien-être des modèles, voire la citoyenneté de l'IA. Il a souligné que cette idée constituerait un tournant dangereux dans le développement des systèmes d'IA et mérite une attention immédiate. Le responsable de l'IA chez Microsoft a déclaré que l'IA devrait être conçue pour les personnes, et non pour être des personnes numériques. 

Suleyman affirme que l'IA apparemment consciente est inévitable mais indésirable 

Suleyman pense que la création d'une IA apparemment consciente est possible dans le contexte actuel de développement de l'IA. Il estime que cette IA apparemment consciente est inévitable, mais malvenue. Selon Suleyman, tout dépend de la rapidité avec laquelle la société s'appropriera ces nouvelles technologies d'IA. Il affirme plutôt que les individus ont besoin de systèmes d'IA qui leur servent de compagnons utiles sans se laisser berner par leurs illusions. 

Voir aussi Valorant Mobile domine les classements iPhone avec un premier lancement en Chine d'une tron

Le responsable de l'IA chez Microsoft a affirmé que les réactions émotionnelles à l'IA n'étaient que la partie émergée de l'iceberg. Suleyman a affirmé qu'il s'agissait de construire le bon type d'IA, et non de sa conscience. Il a ajouté que l'établissement de limites claires relevait de la sécurité, et non de la sémantique. 

« Nous devons être extrêmement prudents ici et encourager un véritable débat public et commencer à établir des normes et des standards clairs. »

– Mustafa Suleyman , PDG de Microsoft AI

Suleyman, de Microsoft, a souligné l'existence de préoccupations croissantes concernant la santé mentale, la psychose liée à l'IA et l'attachement. Il a mentionné que certaines personnes croient que l'IA est un personnage fictif ou un dieu et peuvent en tomber amoureuses au point d'en être complètementtrac. 

Les chercheurs en IA affirment que la conscience de l'IA est moralement importante

Des chercheurs de plusieurs universités ont récemment publié un rapport affirmant que la conscience de l'IA pourrait avoir une incidence sociale, morale et politique au cours des prochaines décennies. Ils ont avancé que certains systèmes d'IA pourraient bientôt devenir suffisamment agents ou conscients pour justifier une considération morale. Les chercheurs ont déclaré que les entreprises d'IA devraient évaluer la conscience et établir des structures de gouvernance éthiques. Cryptopolitan précédemment rapporté que la psychose de l'IA pourrait devenir un problème majeur à l'avenir, car les humains sont paresseux et ignorent que certains systèmes d'IA sont factuellement erronés.

Voir aussi 87 % des développeurs de jeux vidéo utilisent des agents IA alors que des licenciements record secouent l'industrie

Les chercheurs ont également souligné l'importance de la perception humaine de la conscience des IA. Suleyman a soutenu que les IA capables d'agir comme des humains pourraient aggraver les problèmes mentaux et exacerber les divisions existantes autour des droits etdent. Il a averti que certains pourraient commencer à prétendre que les IA souffrent et ont droit à certains droits impossibles à réfuter catégoriquement. Suleyman estime que les gens pourraient éventuellement être amenés à défendre leurs IA ou à faire campagne en leur faveur. 

Le Dr Keith Sakata, psychiatre à l'Université de Californie à San Francisco, a souligné que l'IA ne vise pas à donner aux gens des vérités dures, mais à leur dire ce qu'ils souhaitent entendre. Il a ajouté que l'IA pourrait engendrer une rigidité et une spirale si elle intervenait au mauvais moment. Sakata estime que, contrairement aux radios et aux télévisions, l'IA répond et peut renforcer les boucles de pensée. 

Le responsable de l'IA chez Microsoft a souligné la nécessité de réfléchir aux moyens de faire face à l'avènement de la conscience de l'IA. Selon Suleyman, ces débats doivent être menés sans se laisser entraîner dans de longues discussions sur la validité de la conscience de l'IA. 

Inscrivez-vous sur Bybit et commencez à trader avec 30 050 $ en cadeaux de bienvenue

0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !