9 B rue de Moscou, 75008 Paris
+33 6 66 09 97 93
info at ariseal.fr

Laisser -toute- la décision à l’intelligence artificielle, une question d’éthique ?

C’est l’histoire d’un homme qui sauva le monde.

Elle se déroule en 1983, le 26 septembre pour être précis. Nous sommes en pleine guerre froide. Stanislav Petrov, lieutenant-colonel des forces aériennes soviétiques, se trouve dans un bunker près de Moscou : il est de garde pour surveiller et observer les données d’un système d’alerte en provenance de satellites soviétiques, et suivre les procédures immédiatement en cas d’alerte.

Tout à coup, un satellite soviétique détecte un puis cinq missiles balistiques lancés depuis les Etats-Unis en direction de l’URSS. Le système informatique monitoré par Petrov lui indique le plus haut niveau de fiabilité.  La procédure est simple : alerte = information de la hiérarchie. Pourtant, l’instinct de Petrov lui souffle de ne pas s’alarmer et de prendre quelques minutes de réflexion : 1- il parait étrange que les américains, pour lancer une attaque nucléaire, le fassent à si petite échelle 2 – le radar au sol anti-missile ne confirme pas l’information. Le lieutenant-colonel tranche pour une fausse alerte, et en informe sa hiérarchie, tout en restant conscient de l’incertitude qui règne et que personne ne pourra réparer son erreur, le cas échéant. Plus tard, une enquête révélera que les satellites soviétiques avaient confondu les reflets du soleil sur les nuages avec des empreintes énergétiques de missiles.

C’est donc l’histoire d’un homme qui sauva le monde… malgré les ordinateurs et la fiabilité des systèmes de surveillance. Il racontera plus tard à la BBC qu’il ne « pouvait pas bouger », et qu’il savait que s’il avait envoyé son rapport à sa hiérarchie, les conséquences auraient été une riposte nucléaire immédiate.

Oui mais, 1983, c’est si vieux… tant de progrès ont été faits depuis par nos machines… Peut-être serait-il temps de leur laisser la barre, une bonne fois pour toutes !

Nous sommes en 2017. Les affectations post bac ont été confiées à un algorithme, dont personne ne doute qu’il soit sophistiqué et dépourvu de biais -lui, au moins-. Plusieurs milliers de bacheliers restent pourtant sans affectation en cette fin septembre, sans compter ceux dont la machine a décidé de leur avenir sur la base d’un tirage au sort ou en leur allouant leur dernier choix d’orientation. http://www.leparisien.fr/societe/admission-post-bac-la-cnil-denonce-des-manquements-28-09-2017-7292526.php

Tant,… que la CNIL se saisit du sujet. Mathias Moulin, directeur adjoint de la Cnil analyse : « C’est une question de responsabilisation des acteurs car la tendance est générale, on ne peut pas donner les clés uniquement à la machine, elle peut aider et accélérer le processus mais il faut garder une dimension humaine dans la prise de décision (…)»

Nous y voilà. L’aide à la décision est précieuse, l’intelligence artificielle nous rendra sans doute plus performants, mais l’Homme reste au cœur du processus décisionnel, en entreprise ou ailleurs. Que ce soit pour des raisons d’efficacité -parce que les machines peuvent se tromper, aussi- ou pour des raisons de responsabilité, il est nécessaire de ramener les données brutes au contexte, au réel, pour leur donner un sens. Si Stanislav Petrov ne s’était attaché qu’à ces données brutes, il aurait transmis l’alerte. Il a rendu du sens à ces données, il a relié le réel à l’artificiel pour trancher.

Ne nous dispensons pas d’aller au-delà de la donnée brute, de nous interroger sur le monde et d’ancrer nos décisions dans le réel, afin d’assurer qu’elles aient le sens que nous souhaitons leur donner.

Décider, cela se travaille !