La morale et les machines

leajodo
Il est facile de penser que les machines sont neutres. Ou qu’elles peuvent prendre de meilleures décisions que nous. Mais à l’ère des modèles hyper-dimensionnels, des réseaux de neurones artificiels de grandes tailles et des systèmes de prise de décisions automatisés, l’apprentissage automatisé mène-t-il réellement à de meilleurs résultats? Cela dépend de ce que l’on donne à la machine.
Dans l’article qui suit, l’ingénieure Jenny (Phire) Zhang explore brillamment les mécaniques de la confiance en intelligence artificielle. Elle s’attarde à la croyance répandue que les machines peuvent prendre de meilleures décisions que nous. Elle s’éloigne du jargon technique et démontre plutôt son habileté à poser de bonnes questions et vulgariser les concepts d’apprentissage automatique et de l’IA en général.

La première fois que j’ai assumé le rôle d’ingénieure en chef, il y a quelques années, j’ai eu beaucoup de difficulté à apprendre comment établir mes priorités et déléguer le travail. Pendant une grande partie de mon début de carrière, je n’avais tout simplement jamais eu besoin de compétences en planification au-delà de « dire oui à tout et m’épuiser ».

J’ai reçu l’un des meilleurs conseils professionnels durant cette période. Un mentor m’a conseillé de déléguer les tâches que je maîtrisais déjà. Si je suis bonne dans quelque chose, cela signifie que je suis équipée pour évaluer si mon équipe fait du bon travail. Cela veut aussi dire que je n’ai pas besoin d’autant de pratique – et donc déléguer me donne du temps pour améliorer d’autres compétences.
Il y a un mythe souvent répété au sujet de l’intelligence artificielle qui dit que puisque nous savons que les humains sont enclins à être racistes et sexistes, nous devrions trouver un moyen de créer des machines morales qui traiteront les êtres humains plus équitablement que nous le pourrions. Vous avez vu ce mythe en action si vous avez déjà entendu quelqu’un prétendre que l’utilisation de systèmes automatisés dans le cadre de condamnations conduira à une plus grande équité dans le système judiciaire pénal. Mais si nous savons tous que les humains sont racistes et sexistes et que nous avons besoin de la neutralité des machines pour nous sauver — autrement dit, si nous déléguons la moralité à l’IA — comment saurons-nous si les machines font le travail que nous leur demandons? Et comment les humains pourront-ils un jour s’améliorer ?
L’IA est une drôle de bête aux multiples facettes. Ce que les médias appellent communément « IA » est généralement un sous-type appelé « apprentissage automatique » ou « apprentissage de machine ». La forme la plus courante d’apprentissage automatique consiste à collecter un grand nombre de données qui illustre ce que vous voulez que la machine soit capable de faire, alimenter ces données dans un réseau neuronal avec de multiples paramètres internes pour prendre des décisions et laisser le modèle s’enseigner lui-même de façon itérative comment imiter la compétence capturée dans l’ensemble de données. Par exemple, si vous voulez créer un outil de reconnaissance de la parole qui vous permet de dicter des messages texte sur votre téléphone, vous devez alimenter votre modèle d’apprentissage automatique des milliers d’heures de personnes qui parlent avec des transcriptions de ce qu’ils ont dit, afin qu’il puisse apprendre quels sons correspondent à quelles combinaisons de lettres.
Deux des stratégies les plus courantes pour construire un modèle impliquent un apprentissage supervisé et non supervisé. Dans l’apprentissage supervisé, les points de données individuels d’une collection sont étiquetés avec la « vérité fondamentale », qui est la description empirique et factuelle de ces données. Par exemple, un clip audio dans un ensemble de données vocales comporte ou non une personne qui dit « le rapide renard brun saute par-dessus le chien paresseux ». Dans le cadre d’un apprentissage non supervisé, le modèle est alimenté par des données non étiquetées et fait les meilleures suppositions sur le résultat en fonction de l’association de certaines régularités. Dans les deux cas, les ingénieurs évaluent ensuite le modèle à l’aide de scénarios-tests qui servent à vérifier dans quelle mesure les conclusions de l’IA étaient « correctes » et les ajustent en conséquence.
Cela signifie que la force de…
Jenny Phyre
Jenny est une ingénieure de logiciels qui écrit principalement sur l’impact de la technologie sur nos vies, de sentiments, de livres et bien plus encore.

Partager l'article