Meta prévoit d'automatiser les évaluations des risques pour bon nombre de ses produits
Selon un rapport de Jinse Finance, des documents internes révèlent qu'un système piloté par l'IA pourrait bientôt être responsable de l'évaluation de jusqu'à 90 % des dangers potentiels et des risques de confidentialité liés aux mises à jour des applications Meta telles qu'Instagram et WhatsApp. NPR indique qu'un accord conclu en 2012 entre Facebook (désormais Meta) et la Commission fédérale du commerce des États-Unis exige que l'entreprise effectue des examens de confidentialité de ses produits, évaluant les risques de toute mise à jour potentielle. Jusqu'à présent, ces examens ont principalement été réalisés par des évaluateurs humains. Apparemment, sous le nouveau système, Meta indique que les équipes de produits devront remplir un questionnaire sur leur travail, après quoi elles recevront généralement une "décision instantanée" identifiant les risques par l'IA, ainsi que les exigences à respecter avant que les mises à jour ou les fonctionnalités ne soient publiées.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
En vogue
PlusPrix des cryptos
Plus








