Technologie

Meta accepte de modifier la technologie publicitaire dans le cadre d’un règlement avec les États-Unis

Meta accepte de modifier la technologie publicitaire dans le cadre d'un règlement avec les États-Unis
Écrit par abadmin

SAN FRANCISCO – Meta a accepté mardi de modifier sa technologie publicitaire et de payer une amende de 115 054 $, dans le cadre d’un règlement avec le ministère de la Justice concernant des allégations selon lesquelles les systèmes publicitaires de l’entreprise avaient discriminé les utilisateurs de Facebook en limitant qui pouvait voir des annonces immobilières sur la plate-forme. en fonction de leur race, sexe et code postal.

En vertu de cet accord, Meta, la société anciennement connue sous le nom de Facebook, dit qu’il changerait sa technologie et utiliser une nouvelle méthode assistée par ordinateur qui vise à vérifier régulièrement si les personnes ciblées et éligibles pour recevoir des annonces immobilières voient effectivement ces annonces. La nouvelle méthode, appelée «système de réduction de la variance», s’appuie sur l’apprentissage automatique pour garantir que les annonceurs diffusent des annonces liées au logement à des catégories de personnes protégées spécifiques.

« Meta va – pour la première fois – changer son système de diffusion d’annonces pour lutter contre la discrimination algorithmique », a déclaré Damian Williams, avocat américain du district sud de New York, dit dans un communiqué. « Mais si Meta ne parvient pas à démontrer qu’il a suffisamment modifié son système de livraison pour se prémunir contre les biais algorithmiques, ce bureau poursuivra le litige. »

Facebook, qui est devenu un colosse commercial en collectant les données de ses utilisateurs et en permettant aux annonceurs de cibler les publicités en fonction des caractéristiques d’un public, fait face depuis des années à des plaintes selon lesquelles certaines de ces pratiques sont biaisées et discriminatoires. Les systèmes publicitaires de la société ont permis aux spécialistes du marketing de choisir qui a vu leurs publicités en utilisant des milliers de caractéristiques différentes, ce qui a également permis à ces annonceurs d’exclure les personnes appartenant à un certain nombre de catégories protégées, telles que la race, le sexe et l’âge.

Le ministère de la Justice a déposé mardi sa plainte et le règlement contre Meta. Dans sa plainte, l’agence a déclaré qu’elle avait conclu que « Facebook pourrait réaliser ses intérêts en maximisant ses revenus et en fournissant des publicités pertinentes aux utilisateurs par des moyens moins discriminatoires ».

Alors que le règlement concerne spécifiquement les annonces immobilières, Meta a déclaré qu’il prévoyait également d’appliquer son nouveau système pour vérifier le ciblage des annonces liées à l’emploi et au crédit. L’entreprise a déjà été confrontée à un retour de bâton pour avoir autorisé les préjugés contre les femmes dans les offres d’emploi et exclu certains groupes de personnes de voir des annonces de cartes de crédit.

La question du ciblage publicitaire biaisé a été particulièrement débattue dans les annonces immobilières. En 2016, le potentiel de discrimination publicitaire de Facebook a été révélé dans un enquête par ProPublica, qui a montré que la technologie de l’entreprise permettait aux spécialistes du marketing d’exclure facilement des groupes ethniques spécifiques à des fins publicitaires.

En 2018, Ben Carson, qui était le secrétaire du ministère du Logement et du Développement urbain, a annoncé une plainte formelle contre Facebook, accusant l’entreprise d’avoir des systèmes publicitaires qui « discriminent illégalement » sur la base de catégories telles que la race, la religion et le handicap. En 2019, HUD a poursuivi Facebook pour s’être livré à la discrimination en matière de logement et avoir enfreint la loi sur le logement équitable. L’agence a déclaré que les systèmes de Facebook ne diffusaient pas d’annonces à « un public diversifié », même si un annonceur voulait que l’annonce soit vue largement.

« Facebook discrimine les gens en fonction de qui ils sont et de l’endroit où ils vivent », a déclaré M. Carson à l’époque. « Utiliser un ordinateur pour limiter les choix de logement d’une personne peut être tout aussi discriminatoire que claquer une porte au nez de quelqu’un. »

Le procès et le règlement du ministère de la Justice sont basés en partie sur l’enquête et l’accusation de discrimination du HUD en 2019 contre Facebook.

Dans ses propres tests liés à la question, le bureau du procureur américain pour le district sud de New York a constaté que les systèmes publicitaires de Meta éloignaient les annonces immobilières de certaines catégories de personnes, même lorsque les annonceurs ne visaient pas à le faire. Les publicités ont été dirigées « de manière disproportionnée vers les utilisateurs blancs et loin des utilisateurs noirs, et vice versa », selon la plainte du ministère de la Justice.

De nombreuses annonces immobilières dans les quartiers où la plupart des gens étaient blancs étaient également destinées principalement aux utilisateurs blancs, tandis que les annonces immobilières dans les zones majoritairement noires étaient principalement diffusées aux utilisateurs noirs, a ajouté la plainte. En conséquence, selon la plainte, les algorithmes de Facebook « renforcent ou perpétuent en fait et de manière prévisible les modèles de logement séparés en raison de la race ».

Ces dernières années, les groupes de défense des droits civiques ont également repoussé les systèmes publicitaires vastes et complexes qui sous-tendent certaines des plus grandes plateformes Internet. Les groupes ont fait valoir que ces systèmes comportent des préjugés inhérents et que les entreprises technologiques comme Meta, Google et d’autres devraient faire davantage pour combattre ces préjugés.

Le domaine d’étude, connu sous le nom d' »équité algorithmique », a été un sujet d’intérêt important parmi les informaticiens dans le domaine de l’intelligence artificielle. Des chercheurs de premier plan, dont d’anciens scientifiques de Google comme Timnit Gebru et Margaret Mitchell, tirent la sonnette d’alarme sur ces biais depuis des années.

Au cours des années qui ont suivi, Facebook a restreint les types de catégories parmi lesquelles les spécialistes du marketing pouvaient choisir lors de l’achat d’annonces immobilières, en réduisant le nombre à des centaines et en éliminant les options de ciblage en fonction de la race, de l’âge et du code postal.

Chancela Al-Mansour, directrice exécutive du Housing Rights Center de Los Angeles, a déclaré qu’il était « essentiel » que « les lois sur le logement équitable soient appliquées de manière agressive ».

« Les annonces immobilières étaient devenues des outils de comportement illégal, y compris la ségrégation et la discrimination dans le logement, l’emploi et le crédit », a-t-elle déclaré. « La plupart des utilisateurs n’avaient aucune idée qu’ils étaient soit ciblés, soit refusés, en raison de leur race et d’autres caractéristiques. »

La nouvelle technologie publicitaire de Meta, qui est encore en développement, vérifiera occasionnellement qui reçoit des annonces pour le logement, l’emploi et le crédit, et s’assurera que ces publics correspondent aux personnes que les spécialistes du marketing souhaitent cibler. Si les publicités diffusées commencent à être fortement orientées vers les hommes blancs dans la vingtaine, par exemple, le nouveau système le reconnaîtra théoriquement et déplacera les publicités pour qu’elles soient diffusées plus équitablement auprès d’audiences plus larges et plus variées.

« Nous allons occasionnellement prendre un instantané des publics des spécialistes du marketing, voir qui ils ciblent et supprimer autant de variance que possible de ce public », Roy L. Austin, vice-président des droits civils de Meta et avocat général adjoint. , a déclaré dans une interview. Il l’a qualifié de « progrès technologique significatif dans la manière dont l’apprentissage automatique est utilisé pour diffuser des publicités personnalisées ».

Meta a déclaré qu’il travaillerait avec HUD au cours des prochains mois pour intégrer la technologie dans les systèmes de ciblage publicitaire de Meta, et a accepté un audit tiers de l’efficacité du nouveau système.

La société a également déclaré qu’elle n’utiliserait plus une fonctionnalité appelée « audiences publicitaires spéciales », un outil qu’elle avait développé pour aider les annonceurs à élargir les groupes de personnes que leurs publicités atteindraient. Le ministère de la Justice a déclaré que l’outil se livrait également à des pratiques discriminatoires. Meta a déclaré que l’outil était un premier effort pour lutter contre les préjugés et que ses nouvelles méthodes seraient plus efficaces.

La pénalité de 115 054 $ que Meta a accepté de payer dans le règlement est le maximum disponible en vertu de la loi sur le logement équitable, a déclaré le ministère de la Justice.

« Le public devrait savoir que le dernier abus de Facebook valait le même montant d’argent que Meta gagne en environ 20 secondes », a déclaré Jason Kint, directeur général de Digital Content Next, une association d’éditeurs premium.

Dans le cadre du règlement, Meta n’a admis aucun acte répréhensible.

A propos de l'auteur

abadmin

Laissez un commentaire

  • king crab atl
  • king crab menu
  • ffxiv kholusian king crab