La FTC prévient qu’elle pourrait sévir contre l’IA biaisée

La Federal Trade Commission des États-Unis a mis en garde les entreprises contre l’utilisation d’une intelligence artificielle biaisée, affirmant qu’elles pourraient enfreindre les lois sur la protection des consommateurs. Un nouveau billet de blog note que les outils d’IA peuvent refléter des préjugés raciaux et sexistes «troublants». Si ces outils sont appliqués dans des domaines comme le logement ou l’emploi, faussement annoncés comme impartiaux ou formés sur des données collectées de manière trompeuse, l’agence dit qu’elle pourrait intervenir.

«Si vous êtes pressé d’adopter la nouvelle technologie, veillez à ne pas trop promettre ce que votre algorithme peut offrir», écrit l’avocate de la FTC, Elisa Jillson, en particulier lorsque des décisions prometteuses ne reflètent pas des préjugés raciaux ou sexistes. «Le résultat peut être une tromperie, de la discrimination – et une action d’application de la loi de la FTC.»

Comme Protocole souligne, la présidente de la FTC, Rebecca Slaughter, a récemment qualifié le biais basé sur des algorithmes de «problème de justice économique». Slaughter et Jillson mentionnent tous deux que les entreprises pourraient être poursuivies en vertu de l’Equal Credit Opportunity Act ou de la Fair Credit Reporting Act pour des décisions biaisées et injustes fondées sur l’IA, et que les pratiques déloyales et trompeuses pourraient également relever de l’article 5 de la loi FTC.

«Il est important de vous tenir responsable des performances de votre algorithme. Nos recommandations en matière de transparence et d’indépendance peuvent vous y aider. Mais gardez à l’esprit que si vous ne vous tenez pas responsable, la FTC peut le faire à votre place », écrit Jillson.

L’intelligence artificielle a le potentiel d’atténuer les préjugés humains dans des processus tels que l’embauche, mais elle peut également reproduire ou exagérer ce biais, en particulier si elle est formée à des données qui le reflètent. La reconnaissance faciale, par exemple, produit des résultats moins précis pour les sujets noirs – encourageant potentiellement de fausses identifications et des arrestations lorsque la police l’utilise. En 2019, des chercheurs ont découvert qu’un algorithme de soins de santé populaire rendait les patients noirs moins susceptibles de recevoir des soins médicaux importants, reflétant les disparités préexistantes dans le système. La technologie automatisée de reconnaissance de genre peut utiliser des méthodes simplistes qui classifient mal les personnes transgenres ou non binaires. Et les processus automatisés – qui sont souvent propriétaires et secrets – peuvent créer des «boîtes noires» dans lesquelles il est difficile de comprendre ou de contester des résultats erronés.

L’Union européenne a récemment indiqué qu’elle pourrait adopter une position plus ferme sur certaines applications d’IA, interdisant potentiellement son utilisation pour la «surveillance aveugle» et les scores de crédit social. Avec ces dernières déclarations, la FTC a signalé qu’elle souhaitait sévir contre des utilisations spécifiques et nuisibles.

Mais il n’en est encore qu’à ses débuts, et les critiques se sont demandé s’il pouvait faire appliquer ses règles de manière significative contre les grandes entreprises technologiques. Dans une déclaration d’audience au Sénat aujourd’hui, le commissaire de la FTC, Rohit Chopra, s’est plaint que «maintes et maintes fois, lorsque de grandes entreprises enfreignent la loi de manière flagrante, la FTC n’est pas disposée à prendre des mesures de responsabilité significatives», exhortant le Congrès et d’autres commissaires à «tourner la page sur le L’impuissance perçue de la FTC. » Dans le monde de l’IA, cela pourrait signifier examiner les entreprises comme Facebook, Amazon, Microsoft et Google – qui ont toutes investi des ressources importantes dans des systèmes puissants.

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N'hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *