>
>
>

Une intelligence artificielle en recherche d’humanité

Comment l’avènement de l’intelligence artificielle questionne la place des interfaces utilisateurs ? C’est la question à laquelle nous avons tenté de répondre à l’occasion de la conférence de Benoît Vidal – cofondateur de la société Dataveyes, spécialisée dans la réalisation de data visualisations pour les entreprises. Une interface utilisateur implique logiquement un utilisateur, un humain avec tout ce qui le constitue, ainsi qu’une interface qui n’est autre que la traduction visuelle d’un langage technologique. Alors que le rôle de l’interface est clair, qu’en est-il de la place de l’homme et surtout de son rôle dans ce qui est annoncé comme la 4e révolution industrielle, pionnière dans la réflexion d’un équilibre homme machine.

 

La place de l’homme

Lors du lancement des premiers ordinateurs de la marque à la pomme, Steve Jobs déclarait à propos de ceux-ci : “What a computer is to me is it’s the most remarkable tool that we’ve ever come up with, and it’s the equivalent of a bicycle for our minds.”. Par cette métaphore, Steve Jobs définissait à cette époque les ordinateurs comme des outils permettant au cerveau, et par extension à l’être humain, de devenir meilleur dans ses capacités cognitives. De nos jours, ce rapport entre l’homme et la machine est d’autant plus renforcé par nos habitudes de langage. Ne parle-t-on pas d’interaction Homme – Machine ? D’interface Homme – Machine ? Dans cette configuration, la machine perd son statut d’objet au profit de celui de partenaire, aux yeux de l’utilisateur.

Un partenaire qui semble pourtant prendre un peu trop de place pour 58 % des Français qui, d’après une étude IPSOS , estiment que nous sommes plus dépendants des machines qu’elles ne nous sont utiles. Cependant, dépendance ne veut pas dire rejet car, d’une manière générale, les Français se déclarent en faveur des évolutions technologiques intelligentes de notre siècle, sous certaines conditions. En effet, si nous analysons les résultats de cette même étude à la question : Quelles simplifications sont jugées utiles d’après vous ? , on remarque que les Français ont tendance à délaisser les formes d’intelligence qui les font se sentir traqués, suivis, observés.

 

Entrent alors en jeu les données, ou la data, comme le jargon digital aime l’appeler. Bien que les utilisateurs aient conscience qu’internet n’est plus aussi éphémère et ce, en raison de la traçabilité des écrits et désormais des paroles, ont-ils seulement conscience de ce que sont leurs données ? A ce titre, durant cette conférence, Benoît Vidal nous confirme que “tout le monde doit travailler avec les données”. Néanmoins, doit-on vraiment uniquement parler de data quand ce qui est constaté par la majeure partie de la population ce n’est pas la data en elle-même, mais les présences technologiques autour de nous ?

 

Une question d’éthique

Entre dépendance, fascination et méfiance, les utilisateurs ont appris à vivre avec leur temps, sans pour autant ne jamais perdre de vue leur objectif principal : ramener l’humain au centre. Les designers l’ont bien compris puisqu’il s’agit maintenant de réfléchir à une démarche non pas centré utilisateur (user-centric) mais centré humain (human-centric). Ainsi, au-delà des interfaces et du visuel, quelles émotions transmettent ces nouvelles technologies et quel sens véhiculent-elles ? Auparavant, les machines cherchaient à créer une réponse cognitive plus efficace, une aide au cerveau fainéant de l’humain. Désormais, les utilisateurs sont en quête d’authenticité et de sens. Du sens et du respect. Et ce respect fait notamment partie des enseignements de notre précédente étude IPSOS , puisque les utilisateurs attendent à 93 % que les nouvelles technologies et nouvelles formes d’intelligence soient plus respectueuses de la vie privée et de l’éthique, avant même de parler d’intuitivité.

 

 

Mais qu’est-ce que l’éthique ? L’éthique est une discipline philosophique qui porte sur le jugement de valeur. Cela concerne la morale, et donc les valeurs que chaque humain peut posséder et qui lui sont propres. Pourquoi donc lier éthique et internet ? Le world wide web est, depuis sa création, devenu comme une société faite d’acteurs à part entière. Et comme toute société, elle dispose d’un bien commun qui doit être régi par des règles morales et éthiques. Ce bien commun est aujourd’hui principalement constitué des données utilisateurs, véritable mine d’or des entités marketing et commerciales. Elles peuvent être considérées comme le journal intime des internautes. Cette dualité user centric vs. human centric suscite encore de nombreux débats qui trouvent aujourd’hui leur salut dans la création de réformes digitales telles que la RGPD.

Contrairement aux idées reçues, les utilisateurs ne sont pas les seuls gagnants de cette transparence sur la propriété et le traitement des données. Les services marketing aussi ! Plus que jamais, la confiance est de mise sur le web et si le respect de normes éthiques favorise la confiance en un acteur digital, les bénéfices à en tirer n’en seront qu’exponentiels. Une relation gagnant-gagnant en théorie… Car dans la pratique, que penser de ces sites web sur lesquels on ne peut pas outrepasser la popin d’accord d’analyse des données utilisateurs sous peine de devoir abandonner sa navigation initiale ? Grâce à cet exemple, il apparaît que les requêtes humaines se confondent et se confrontent, nous questionnant alors sur la responsabilité et le rôle de l’homme dans l’apparition de ces nouvelles formes d’intelligence, à l’instar de la gestion des données.

 

 

Quelle responsabilité pour l’homme ?

 

Les données utilisateurs sont donc devenues monnaie d’échange en trouvant une seconde valeur (commerciale) auprès d’un certain public. Mais qu’en est-il des autres formes de données, celles dites libres et composant le coeur du principe de l’open source ? Et bien, au même titre que pour des données utilisateurs, elles nécessitent de la transparence, de la collecte à la manière de les représenter. C’est ce qu’a relevé Leenke de Donder au Meetup Big data and Ethics en présentant plusieurs visualisations dont la compréhension peut être tronquée. Les données sont pourtant justes, mais chaque humain est différent, tant dans les valeurs morales qu’il possède que dans son niveau d’interprétation des choses ou sa sensibilité à un sujet donné. Ne pas prendre en compte ces paramètres, c’est risqué une incompréhension de l’information, voir une déformation. La carte des terroristes belges du Het Nieuwsbald Weekend est selon Leeke un exemple parlant.

 

Au-delà des données, que penser de la création de ces nouveaux algorithmes ?
Si l’homme est créateur de ces programmes, en est-il alors responsable ? Certains vous diront que non, car les machines sont désormais dotées d’intelligence et en mesure d’établir des déductions en autonomie. D’autres parleront d’imitation par les outils informatiques des capacités humaines, à l’instar du machine learning, outil phare de l’intelligence artificielle, qui certes crée de nouveaux patterns mais sans jamais ajouter de nouvelle variable, sans jamais aller au-delà de ce qu’il n’a pas déjà. Pourquoi nommons-nous donc cela “intelligence” ? Car les machines sont en mesure de nous apporter une réponse encore jamais envisagé auparavant, en relevant simplement toutes les combinaisons possibles d’un ensemble de données. Chose que le cerveau ne peut réaliser, biaisé par son besoin de rationalisation sur ce qu’il connait déjà. On a donc l’impression que les machines sont intelligentes alors qu’en réalité, il ne s’agit que d’une réponse logique à un stimuli. Ce qui n’est pas sans rappeler l’histoire de Hans, le cheval intelligent qui savait compter. Lorsque son propriétaire lui soumettait une addition, Hans frappait le sol avec son sabot du nombre de fois équivalent à la bonne réponse. Plus tard, on découvrit que le cheval ne savait pas compter mais réagissait à des expressions faciales de son maître pour savoir quand s’arrêter de taper.

 

 

Qui de celui qui crée ou utilise est alors responsable ? L’homme ne serait-il pas un élément limiteur de l’avancée technologique en raison de ses biais ?

Les utilisateurs sont depuis devenu prudents, notamment lors des discussions concernant l’algorithme Facebook durant les présidentielles américaines. On assiste à une montée du scepticisme, et vient alors la question de savoir si les gens seront capables de déceler le vrai du faux ou si une authentification technologique des médias va être nécessaire pour pouvoir croire tout ce qui est en ligne. Comme nous le montrait Stanley Kubrick dans 2001 : l’odyssée de l’espace, la découverte d’un nouvel outil peut parfois déboucher sur un nouvel usage bien moins bénéfique (cf. la découverte de l’outils qui devient une arme). Doit-on craindre la même chose des nouvelles intelligences ? D’après Bryce Goodman, co-organisateur du workshop NIPSThese are the consequences of systems that are trained to exhibit features of human intelligence, but are fundamentally different in terms of how they process information. We’re trying to show what hacks are possible and make it public.” La réponse est donc oui, et les dérives peuvent être nombreuses.

 

En partant du principe que l’homme est à l’origine de l’intelligence artificielle et que celle-ci possède une marge de manoeuvre plutôt limitée comme nous avons pu le constater dans les paragraphes précédents, n’est-ce pas le rôle de l’homme plus que sa place qui devront être pris en compte dans les années à venir ? Et surtout, peut-on prendre conscience de cette part de responsabilité ?

Car jusqu’alors, une chose est sur, la machine est telle que Descartes la décrivait dans sa lettre au Marquis de Newcastle, semblable à un animal. L’homme garde sa suprématie face à la machine, allant de nos jours jusqu’à pouvoir la commander avec la pensée. Le futur est donc déjà là.

 

Article rédigé par Marie-Lucie Petipas – M2 UX