Opinion | A.I. Change d'assurance | Voyages pas cher

Avant l’ACA, les courtiers en données achetaient des données à des pharmacies et les vendaient à des compagnies d’assurance, ce qui nierait la couverture en fonction de l’historique des ordonnances. Les utilisations futures des données en assurance ne seront pas aussi simples.

Au fur et à mesure que l’apprentissage automatique se répercute sur de plus en plus de choix des bénéficiaires d’une couverture et de ce qu’il en coûte, la discrimination devient plus difficile à détecter.

Une partie du problème tient à la déférence automatique que la société a si souvent accordée à la technologie, comme si l'intelligence artificielle était infaillible. Mais l’autre problème, c’est que l’intelligence artificielle est connue pour reproduire des biais qui ne sont pas explicitement codé en elle. Dans le domaine de l'assurance, cela se transforme en «discrimination par procuration». Par exemple, un algorithme pourrait (correctement) conclure que rejoindre un groupe Facebook pour une mutation BRCA1 est un indicateur de risque élevé pour une assurance maladie. entreprise. Même si les informations génétiques réelles – dont l'utilisation est illégale – ne sont jamais introduites dans le système, la boîte noire algorithmique finit par reproduire la discrimination génétique.

Un code postal peut devenir un proxy pour la race; un choix de libellé dans un curriculum vitae pourrait devenir un indicateur indirect du genre; l'historique des achats par carte de crédit peut devenir un indicateur indirect du statut de grossesse. Le contrôle juridique des sociétés d'assurance, qui sont généralement réglementées par les États, concerne principalement les discriminations considérées comme irrationnelles: préjugés fondés sur la race, le sexe, la pauvreté ou la génétique.. On ne sait pas très bien ce qui peut être fait à propos d’indicateurs rationnels qui sont peu nombreux mais des indicateurs indirects de facteurs qu’il serait illégal de prendre en compte.

Placer ces biais dans un algorithme secret peut empêcher un examen critique des inégalités. ProPublica a découvert que les habitants des quartiers minoritaires payaient des primes d’assurance automobile plus élevées que les résidents des quartiers à majorité blanche présentant un risque similaire, mais ses reporters n’étaient pas en mesure de déterminer exactement pourquoi, car les compagnies d’assurances ne divulgueraient pas leurs algorithmes ou leurs ensembles de données exclusifs.

Une poignée de poursuites dans d'autres domaines ont contesté cette pratique. Après que le programme Medicaid de l’Idaho ait commencé à utiliser un système automatisé de calcul des prestations, les bénéficiaires ont soudainement vu leurs prestations réduites de 30%. Lorsque l’État a refusé de divulguer son algorithme, affirmant qu’il s’agissait d’un secret commercial, le A.C.L.U. de l'Idaho poursuivi accéder au code, et a finalement découvert que la formule était criblée de failles.

L'intelligence artificielle, dans toutes ses variantes, est très prometteuse. Le traitement automatisé des photos d'accident de voiture ou la lecture à la machine des numérisations médicales peut aider à réduire les coûts, voire même sauver des vies. Mais l'opacité entourant de nombreuses applications d'automatisation et d'intelligence artificielle est un motif de pause. Non seulement les personnes ont un accès limité au code qui détermine les aspects clés de leur vie, mais la barre qui empêche de comprendre le «raisonnement» des algorithmes et des ensembles de données est élevée. Il ira en augmentant à mesure que de plus en plus d’industries utiliseront des technologies sophistiquées telles que l’apprentissage en profondeur.