Mustafa Suleyman, directeur de l'IA chez Microsoft, a mis en garde contre le danger d'envisager l'idée d'une IA consciente, ajoutant qu'elle pourrait facilement nuire aux personnes psychologiquement vulnérables. Il a souligné que la considération morale pour l'IA avancée créait des problèmes de dépendance susceptibles d'aggraver les délires.
Suleyman a soutenu que traiter l'IA comme un système conscient pourrait introduire de nouvelles dimensions de polarisation et compliquer la lutte pour les droits existants, créant ainsi une nouvelle catégorie d'erreurs pour la société. Le responsable de l'IA chez Microsoft a affirmé que les citoyens pourraient commencer à réclamer des protections juridiques pour l'IA s'ils estiment que les IA peuvent souffrir ou ont le droit de ne pas être arbitrairement désactivées.
Suleyman craint que la psychose de l'IA ne pousse les gens à défendre avectronles droits de l'IA, le bien-être des modèles, voire la citoyenneté de l'IA. Il a souligné que cette idée constituerait un tournant dangereux dans le développement des systèmes d'IA et mérite une attention immédiate. Le responsable de l'IA chez Microsoft a déclaré que l'IA devrait être conçue pour les personnes, et non pour être des personnes numériques.
Suleyman affirme que l'IA apparemment consciente est inévitable mais indésirable
Suleyman pense que la création d'une IA apparemment consciente est possible dans le contexte actuel de développement de l'IA. Il estime que cette IA apparemment consciente est inévitable, mais malvenue. Selon Suleyman, tout dépend de la rapidité avec laquelle la société s'appropriera ces nouvelles technologies d'IA. Il affirme plutôt que les individus ont besoin de systèmes d'IA qui leur servent de compagnons utiles sans se laisser berner par leurs illusions.
Le responsable de l'IA chez Microsoft a affirmé que les réactions émotionnelles à l'IA n'étaient que la partie émergée de l'iceberg. Suleyman a affirmé qu'il s'agissait de construire le bon type d'IA, et non de sa conscience. Il a ajouté que l'établissement de limites claires relevait de la sécurité, et non de la sémantique.
« Nous devons être extrêmement prudents ici et encourager un véritable débat public et commencer à établir des normes et des standards clairs. »
– Mustafa Suleyman , PDG de Microsoft AI
Suleyman, de Microsoft, a souligné l'existence de préoccupations croissantes concernant la santé mentale, la psychose liée à l'IA et l'attachement. Il a mentionné que certaines personnes croient que l'IA est un personnage fictif ou un dieu et peuvent en tomber amoureuses au point d'en être complètementtrac.
Les chercheurs en IA affirment que la conscience de l'IA est moralement importante
Des chercheurs de plusieurs universités ont récemment publié un rapport affirmant que la conscience de l'IA pourrait avoir une incidence sociale, morale et politique au cours des prochaines décennies. Ils ont avancé que certains systèmes d'IA pourraient bientôt devenir suffisamment agents ou conscients pour justifier une considération morale. Les chercheurs ont déclaré que les entreprises d'IA devraient évaluer la conscience et établir des structures de gouvernance éthiques. Cryptopolitan précédemment rapporté que la psychose de l'IA pourrait devenir un problème majeur à l'avenir, car les humains sont paresseux et ignorent que certains systèmes d'IA sont factuellement erronés.
Les chercheurs ont également souligné l'importance de la perception humaine de la conscience des IA. Suleyman a soutenu que les IA capables d'agir comme des humains pourraient aggraver les problèmes mentaux et exacerber les divisions existantes autour des droits etdent. Il a averti que certains pourraient commencer à prétendre que les IA souffrent et ont droit à certains droits impossibles à réfuter catégoriquement. Suleyman estime que les gens pourraient éventuellement être amenés à défendre leurs IA ou à faire campagne en leur faveur.
Le Dr Keith Sakata, psychiatre à l'Université de Californie à San Francisco, a souligné que l'IA ne vise pas à donner aux gens des vérités dures, mais à leur dire ce qu'ils souhaitent entendre. Il a ajouté que l'IA pourrait engendrer une rigidité et une spirale si elle intervenait au mauvais moment. Sakata estime que, contrairement aux radios et aux télévisions, l'IA répond et peut renforcer les boucles de pensée.
Le responsable de l'IA chez Microsoft a souligné la nécessité de réfléchir aux moyens de faire face à l'avènement de la conscience de l'IA. Selon Suleyman, ces débats doivent être menés sans se laisser entraîner dans de longues discussions sur la validité de la conscience de l'IA.
Inscrivez-vous sur Bybit et commencez à trader avec 30 050 $ en cadeaux de bienvenue