L'automatisation des services publics porte-t-elle atteinte à votre vie privée ?

L'intelligence artificielle (IA) est aussi discutable qu'impressionnante. Cela peut simplifier de nombreuses parties du travail et de la vie quotidienne, mais cela soulève également des questions honnêtes. L'utilisation de l'IA par le gouvernement fédéral américain, en particulier, laisse certaines personnes inquiètes.

Il existe de nombreux projets d'IA du gouvernement fédéral en cours d'utilisation ou de développement aujourd'hui, et certains ont fait beaucoup d'excellents. Dans le même temps, ils soulèvent de nombreuses préoccupations en matière de confidentialité personnelle liées à l'intelligence artificielle. Voici un examen plus approfondi de ces projets et de ce qu'ils signifient pour la vie privée.

Exemples d'IA gouvernementale et de projets d'automatisation

Les nombreux exemples de base d'intelligence artificielle utilisés par le gouvernement américain impliquent l'automatisation du travail de routine sur le lieu de travail. En 2019, Seattle a utilisé Automatisation des processus robotiques (RPA) pour s'occuper de l'entrée des données et également du traitement des demandes. Depuis, la ville a traité plus de 6 000 candidatures en attente et a économisé des centaines d'heures de travail.

D'autres projets d'IA du gouvernement fédéral sont beaucoup plus distinctifs. Le service d'incendie de New York teste des robots de compagnie de Dynamique de Boston pour déterminer les dommages architecturaux ainsi que les fumées toxiques avant que les pompiers n'entrent. Avant le projet de robot de lutte contre les incendies, le département de police de New York s'était préparé à appliquer exactement la même robotique.

Les divisions de police et d'autres entreprises du gouvernement fédéral à travers le pays envisagent d'utiliser des technologies modernes similaires. Néanmoins, à mesure que ces emplois gouvernementaux en IA disparaissent, leurs éventuelles lacunes en matière de confidentialité personnelle sont en fait devenues plus claires.

Voir aussi :  Pourquoi le cryptojacking est meilleur que le ransomware pour les cybercriminels

L'intelligence artificielle est-elle une menace pour la vie privée ainsi que pour la sécurité ?

On ne sait toujours pas si vous verrez des robots policiers à l'avenir, mais les choses semblent se diriger en faisant cela. Ces projets présentent de nombreux avantages, mais les problèmes de confidentialité personnelle de l'intelligence artificielle deviennent beaucoup plus graves lorsqu'il s'agit de s'occuper du gouvernement. Vous trouverez ci-dessous certains des problèmes les plus importants liés à ces technologies.

Surveillance cachée

La connaissance artificielle repose sur la collecte et l'analyse d'informations. Pour cette raison, davantage d'emplois d'IA au gouvernement fédéral indiquent que ces entreprises collecteront et conserveront également des détails supplémentaires concernant leurs citoyens. Certaines personnes semblent que toutes ces informations accumulées violent leur vie privée ainsi que leurs droits légaux.

Des technologies comme le travail d'animal de compagnie de lutte contre les incendies sont particulièrement inquiétantes en raison du fait qu'elles peuvent rendre la sécurité du gouvernement fédéral trompeuse. Les agences affirment que le robot est là pour vérifier les problèmes de sûreté et de sécurité, mais il n'y a aucun moyen pour les individus d'informer les informations qu'il recueille. Il peut avoir des caméras et des unités de détection qui scannent leurs visages ou suivent leurs téléphones portables à leur insu.

Certaines personnes craignent que la "variable étonnante" des robots dissimule certainement leur possibilité de surveillance. La robotique des flics à l'avenir pourrait espionner les citoyens sans augmenter beaucoup d'incertitude étant donné que les gens ne voient que la toute nouvelle technologie par opposition à une violation de leur vie privée.

Responsabilités peu claires

Ces projets d'IA et d'automatisation soulèvent également la question de la responsabilité. Si un robot commet une erreur qui cause du tort, qui en est responsable ? Lorsqu'un fonctionnaire viole ses limites et enfreint également les libertés civiles de quelqu'un, les tribunaux peuvent le tenir responsable, mais qu'en est-il d'un robot ?

Voir aussi :  Un VPN peut-il vous aider à vous protéger contre les ransomwares ?

Vous pouvez voir ce problème dans les véhicules autonomes. Les gens ont en fait facturé le fournisseur dans le cadre d'une réclamation d'obligation de produit dans certains cas de collision de pilote automatique, tandis que d'autres critiquent le conducteur du véhicule. Dans une circonstance, le Bureau national de la sécurité des transports a placé la responsabilité à la fois sur le fabricant et sur l'automobiliste, mais il doit éventuellement être sélectionné au cas par cas. Les robots des autorités brouillent les cartes de la même manière. S'ils violent votre vie privée, il n'est pas certain de blâmer le producteur, la division des flics ou les responsables humains.

Cette complication pourrait réduire et rendre complexes les procédures légales. Cela peut prendre un certain temps pour que les cibles d'atteintes à la vie privée ou d'atteintes à leurs libertés civiles obtiennent justice. De nouvelles lois et des critères légaux peuvent éclaircir des points et résoudre ce problème, mais pour le moment, ce n'est pas clair.

Risques de violation de données

L'intelligence artificielle utilisée par le gouvernement fédéral américain pourrait également étendre les problèmes de confidentialité de l'IA que vous voyez dans le secteur économique. La collecte de certaines informations peut être tout à fait légale, mais plus les organisations collectent, plus elles sont en danger. L'entreprise ou le gouvernement fédéral peut ne pas utiliser les informations à des fins illégales, mais cela peut rendre les individus vulnérables à la cybercriminalité.

Voir aussi :  Voici ce que vous devez savoir sur le cheval de Troie Dridex

Il y avait plus de 28 000 cyberattaques contre le gouvernement fédéral américain en 2019 seulement. Si les entreprises détiennent encore plus d'informations personnelles sur les gens, ces grèves pourraient toucher plus que le gouvernement fédéral. Une violation de données efficace pourrait mettre en danger de nombreuses personnes sans qu'elles le sachent. Les violations ne sont généralement pas détectées, vous devez donc vérifier que vos informations ne sont pas déjà en vente.

Par exemple, si un robot policier à l'avenir utilise la reconnaissance faciale pour essayer de trouver les malfaiteurs nécessaires, cela pourrait économiser de nombreuses informations biométriques sur les citoyens. Les pirates qui pénètrent dans le système peuvent voler ces informations et les utiliser pour accéder aux comptes bancaires des individus. Les tâches du gouvernement fédéral en matière d'IA doivent comporter de solides mesures de cybersécurité si elles ne veulent pas mettre en péril les informations des personnes.

L'IA du gouvernement présente des avantages, mais suscite des inquiétudes

On ne sait toujours pas exactement comment le gouvernement fédéral américain utilisera l'intelligence artificielle à l'avenir. De nouvelles protections ainsi que des lois pourraient résoudre ces problèmes et apporter tous les avantages de l'IA sans ses risques. Pour l'instant, cependant, ces inquiétudes soulèvent certains systèmes d'alarme.

Les soucis de confidentialité sont nombreux partout où l'IA fonctionne. Ces questions deviennent d'autant plus sérieuses qu'elles jouent un rôle plus important au sein du gouvernement. Les projets d'IA d'État peuvent faire beaucoup de bien, mais ils ont également un risque substantiel de nuire.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *