Que sont les algorithmes d’apprentissage automatique ? Voici comment ils fonctionnent

Les connaissances artificielles et l’apprentissage automatique sont à l’origine d’un grand nombre des avancées que nous constatons aujourd’hui dans l’industrie technologique moderne. Mais exactement comment les équipements sont-ils dotés de la capacité d’apprendre ? De plus, comment la méthode que nous utilisons entraîne-t-elle des conséquences imprévues ?

Voici notre explication rapide sur le fonctionnement des formules d’intelligence artificielle, ainsi que certains cas d’intelligence artificielle qui ont mal tourné.

Que sont les algorithmes d’apprentissage automatique ?

La connaissance des machines est une branche de la technologie informatique qui vise à fournir à l’IA la capacité d’apprendre des emplois. Cela inclut le développement de capacités sans que les programmeurs codent explicitement l’IA pour faire ces points. Au contraire, l’IA est capable d’utiliser des données pour s’éduquer.

Les programmeurs y parviennent via des algorithmes d’intelligence artificielle. Ces formules sont les modèles sur lesquels reposent les actions d’apprentissage de l’IA. Les algorithmes, ainsi que les ensembles de données d’entraînement, permettent à l’IA de découvrir.

Un algorithme donne généralement un modèle qu’une IA peut utiliser pour résoudre un problème. Par exemple, découvrir comment distinguer des images de chats de compagnie par rapport à des chiens de compagnie. L’IA utilise la conception définie par la formule pour un ensemble de données composé de photos de félins et de canidés. Avec le temps, l’IA découvrira certainement exactement comment reconnaître les chats des chiens de compagnie beaucoup plus correctement et plus rapidement, sans intervention humaine.

La découverte de machines améliore les technologies telles que le moteur de recherche Internet, les outils de maison intelligente, les solutions Internet et les équipements indépendants. C’est exactement la façon dont Netflix reconnaît les films que vous êtes le plus susceptible d’apprécier ainsi que la façon dont les solutions de streaming de chansons peuvent recommander des listes de lecture.

Mais si l’intelligence artificielle peut nous rendre la vie beaucoup plus facile, il peut également y avoir des conséquences inattendues.

7 fois où l’apprentissage automatique a mal tourné

1. Incidents liés aux résultats de la recherche d’images Google

google-image-search-results-controverses

La recherche Google a en fait rendu la navigation sur Internet beaucoup plus facile. L’algorithme du moteur prend en compte un certain nombre de facteurs lors de la création de résultats, tels que les expressions de recherche et le taux de rebond. Mais la formule prend également en compte le trafic du site Web des clients, ce qui peut entraîner des problèmes de qualité des pages de résultats de recherche.

Cela n’est nulle part encore plus évident que dans les images. Étant donné que les pages qui génèrent un trafic élevé sur le site Web sont plus susceptibles d’afficher leurs images, les histoires qui attirent une grande variété d’utilisateurs, y compris les appâts à clics, sont généralement ciblées.

Par exemple, la page de résultats de recherche d’images pour « camps de squatters en Afrique du Sud » a suscité un débat lorsqu’il a été découvert qu’elle présentait principalement des Sud-Africains blancs. Ceci malgré les données montrant que l’écrasante majorité de ceux qui résident dans des biens immobiliers occasionnels, tels que des cabanes, sont des Sud-Africains noirs.

Voir aussi :  Alimentation fantôme : Qu'est-ce que c'est et comment ça marche ?

Les facteurs utilisés dans l’algorithme de Google indiquent en outre que les internautes peuvent contrôler les résultats. Par exemple, un projet de clients a affecté les résultats de la recherche d’images Google dans la mesure où la recherche du terme « idiot » montre des images du président américain Donald Trump.

2. Microsoft Bot transformé en nazi

Faites confiance à Twitter pour corrompre un chatbot d’apprentissage automatique bien intentionné. C’est ce qui s’est produit dans la journée qui a suivi le lancement du célèbre chatbot de Microsoft, Tay.

Tay ressemblait aux schémas linguistiques d’une adolescente et a également été découvert grâce à ses interactions avec d’autres clients de Twitter. Néanmoins, elle est devenue l’une des erreurs d’IA les plus connues lorsqu’elle a commencé à partager des déclarations nazies et des insultes raciales. Il s’avère que les géants ont en fait utilisé l’apprentissage automatique de l’IA contre elle, l’inondant de communications chargées de fanatisme.

Peu de temps après, Microsoft a mis Tay hors ligne pour toujours.

3. Problèmes de reconnaissance faciale de l’IA

L’IA de reconnaissance faciale crée généralement des titres pour toutes les mauvaises raisons, telles que des histoires sur la reconnaissance faciale et des soucis de confidentialité. Cependant, cette IA a également créé des problèmes importants en essayant de reconnaître les personnes de couleur.

En 2015, les utilisateurs ont découvert que Google Photos classait certains individus noirs comme des gorilles. En 2018, une étude de l’ACLU a révélé que le logiciel de reconnaissance faciale Rekognition d’Amazon avait identifié 28 membres du Congrès américain comme suspects de flics, des positifs incorrects influençant de manière disproportionnée les individus de l’ombre.

Un autre incident a impliqué l’application du logiciel Face ID d’Apple reconnaissant à tort deux femmes chinoises différentes comme la même personne. En conséquence, le collègue du propriétaire de l’iPhone X pourrait déverrouiller le téléphone.

Pendant ce temps, la scientifique du MIT, Joy Buolamwini, se souvient avoir fréquemment besoin d’utiliser un masque blanc tout en travaillant avec la technologie de reconnaissance faciale pour que le logiciel la reconnaisse. Pour répondre à des préoccupations similaires à celles-ci, Buolamwini et divers autres experts en informatique accentuent la préoccupation et la demande d’ensembles de données plus complets pour la formation à l’IA.

4. Deepfakes utilisés pour les canulars

Alors que les gens utilisent depuis longtemps Photoshop pour développer des images canulars, l’intelligence artificielle prend cela à un nouveau degré. Une application logicielle telle que FaceApp vous permet d’échanger des sujets d’un clip vidéo à un autre.

Voir aussi :  Qui a inventé l'ordinateur portable ? 7 premiers ordinateurs portables qui ont donné le coup d'envoi du travail mobile

Mais de nombreuses personnes exploitent le logiciel pour une gamme d’utilisations nuisibles, consistant à recouvrir des visages de célébrités directement dans des clips vidéo pour adultes ou à produire des vidéos canulars. Pendant ce temps, les internautes ont en fait contribué à améliorer l’innovation pour rendre progressivement difficile la distinction entre les vidéos authentiques et les fausses. Pour cette raison, cela rend ce type d’IA vraiment puissant en termes de diffusion de fausses informations ainsi que d’escroqueries.

Pour afficher la puissance de la technologie, le réalisateur Jordan Peele et le PDG de BuzzFeed Jonah Peretti ont produit un clip vidéo deepfake révélant ce qui semble l’ancien président des États-Unis Barack Obama fournissant un message d’intérêt public sur la puissance des deepfakes.

5. L’essor des robots Twitter

Les robots Twitter ont été créés à l’origine pour automatiser des choses comme les réponses du support client pour les noms de marque. Mais l’innovation est actuellement un motif important d’émission. En fait, une étude a estimé que jusqu’à 48 millions de clients sur Twitter sont en fait des robots d’exploration d’IA.

Plutôt que de simplement utiliser des algorithmes pour adhérer à des hashtags particuliers ou répondre aux demandes de renseignements des clients, de nombreux comptes de robots tentent d’imiter de véritables individus. Ces « personnes » promeuvent ensuite les canulars et contribuent à rendre les fausses informations virales.

Une vague de robots Twitter a même influencé dans une certaine mesure l’opinion populaire sur le Brexit et l’élection politique présidentielle américaine de 2016. Twitter lui-même a avoué avoir découvert environ 50 000 robots de fabrication russe qui ont publié des articles concernant les élections politiques.

Les robots restent pour affliger la solution, répandant la désinformation. Le problème est si grouillant qu’il influence même l’appréciation de l’entreprise.

6. Les membres du personnel disent qu’Amazon AI a décidé qu’il était préférable d’embaucher des hommes

En octobre 2018, Reuters a signalé qu’Amazon avait besoin de jeter un appareil de recrutement après que l’IA du logiciel ait décidé que les candidats masculins étaient spéciaux.

Les employés qui voulaient rester confidentiels se sont avancés pour informer Reuters de leur accord avec la tâche. Les développeurs souhaitaient que l’IA reconnaisse les meilleurs candidats pour une tâche en fonction de leur CV. Cependant, les personnes impliquées dans la tâche ont rapidement remarqué que l’IA punissait les candidates. Ils ont expliqué que l’IA utilisait des CV de la décennie précédente, dont beaucoup provenaient d’hommes, comme ensemble de données d’entraînement.

En conséquence, l’IA a commencé à filtrer les CV en fonction du mot clé « dames ». Le mot-clé apparaît dans le CV sous des activités telles que « capitaine du club d’échecs féminin ». Alors que les programmeurs ont modifié l’IA pour empêcher cette pénalisation des CV des femmes, Amazon a finalement abandonné la tâche.

Voir aussi :  La qualité audio expliquée : profondeur de bits par rapport à la fréquence d'échantillonnage

7. Contenu inapproprié sur YouTube Kids

YouTube Kids propose de nombreux clips vidéo ridicules et capricieux destinés à captiver les enfants. Pourtant, il a également un problème de vidéos spam qui contrôlent la formule de la plate-forme.

Ces vidéos sont basées sur des balises préférées. Étant donné que les enfants ne sont pas des visiteurs très exigeants, les clips vidéo indésirables utilisant ces phrases clés apportent d’innombrables vues. L’IA génère instantanément plusieurs de ces clips vidéo en utilisant des aspects d’animation informatique, basés sur des balises de tendance. Même lorsque les clips vidéo sont réalisés par des animateurs, leurs titres sont spécifiquement créés pour le bourrage de mots clés.

Ces mots-clés aident à contrôler la formule de YouTube pour s’assurer qu’ils se retrouvent dans des suggestions. Une quantité considérable de contenu inacceptable est apparue dans les flux d’enfants utilisant l’application YouTube Kids. Cela comprenait du matériel qui dépeint la violence, les jumpscares et le contenu lié au sexe.

Pourquoi l’apprentissage automatique tourne mal

Il y a deux raisons importantes pour lesquelles l’intelligence artificielle provoque des répercussions imprévues : l’information et les personnes. En termes d’information, le concept de « junk in, junk out » s’applique. Si les informations fournies à une IA sont limitées, biaisées ou de faible qualité ; le résultat est une IA avec une portée ou des préjugés limités.

Mais même si les programmeurs obtiennent les informations correctes, les gens peuvent jeter une clé dans les travaux. Les créateurs d’applications logicielles ne reconnaissent généralement pas comment les individus peuvent utiliser la technologie moderne de manière malveillante ou pour des fonctions complaisantes. Deepfakes est né de l’innovation utilisée pour améliorer les effets spéciaux dans les salles de cinéma.

Ce qui vise à offrir un plaisir plus immersif finit également par gâcher la vie des gens lorsqu’il est manipulé.

Certaines personnes s’efforcent d’améliorer les garanties autour de l’innovation en matière d’apprentissage automatique pour empêcher les utilisations malveillantes. Pourtant, l’innovation est actuellement en dessous. Pendant ce temps, de nombreuses entreprises ne font pas preuve de la maîtrise de soi nécessaire pour éviter un abus de ces développements.

Les algorithmes d’apprentissage automatique peuvent nous aider

Cela peut sembler un peu ruineux et aussi chagrin lorsque vous réalisez à quel point l’apprentissage automatique ainsi que le système expert déçoivent les hypothèses. Mais cela nous aide également de plusieurs manières – pas seulement en termes de facilité, mais en améliorant nos vies en général.

Si vous vous sentez vraiment un peu réticent à l’égard de l’impact favorable de l’IA et de l’apprentissage automatique, découvrez les moyens par lesquels le système expert lutte contre la cybercriminalité ainsi que les pirates informatiques pour retrouver un peu d’espoir.

Cliquez pour évaluer cet article !
[Total: Moyenne : ]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *