Ce que je sais de la confidentialité dans l’AI : Rand Hindi

Lire en

Les innovations que nous promet le futur vont simplifier nos vies, nous assure-t-on, mais cela aura un coût.  

Nous devrons choisir entre gagner du temps et garder le contrôle, entre gagner en confort et conserver nos informations privées. Tout le monde veut nos data et il faudra s’habituer à les donner. C’est ce qu’on nous répète.

La conférence Hello Tomorrow qui a eu lieu à Paris les 13 et 14 octobre, a mis sur le devant de la scène des innovations technologiques qui pourraient changer notre façon de vivre, du stockage de donnée dans l’ADN aux véhicules automatiques. Sur une seconde scène, un panel abordait le sujet qui déterminera si ces innovations seront favorables aux humains ou pas : la sécurité et la confidentialité dans ce futur monde connecté.

L’entrepreneur franco-libanais Rand Hindi était à ce panel.Son entreprise, Snips, produit des   kits de développement logiciel (SDKs) qui permettent aux entreprises de créer leur propres assistants virtuels et portent l’accent sur la confidentialité.

Il est convaincu que nous pouvons développer un monde dans lequel intelligence artificielle et confidentialité riment.

L’AI a autant besoin d’informations que de protéger ses informations. Pour que les assistants virtuels fonctionnent, il faut leur donner une profonde compréhension de la vie de l’utilisateur. Si vous demandez à un assistant de trouver un bon restaurant japonais à côté de votre hôtel, il doit savoir où se situe votre hôtel et donc d’accéder à vos emails, mais aussi à vos messages de chat, votre localisation, vos calendriers, vos réseaux sociaux. Si nous centralisions toutes ses informations sur nos serveurs, nous deviendrions une cible de choix pour les hackers et les gouvernements. Pour nous, la confidentialité n’est pas qu’éthique, c’est quelque chose de nécessaire pour que les gens nous fassent confiance avec leurs informations.

Les gens ne devraient pas se soucier de confidentialité. La première question que les personnes non techniques nous posent tournent en général autour de la capacité des assistants virtuels à être suffisamment intelligents pour battre Siri. Quand j’explique comment nous y arrivons, alors là évidemment, ils s’intéressent à la confidentialité. Je ne pense pas que les gens devraient se préoccuper de confidentialité, non pas parce que ce n’est pas important mais parce qu’elle devrait être respectée par défaut. Aujourd’hui, certaines grandes entreprises essaient de nous faire croire qu’il faut faire un compromis entre AI et confidentialité. C’est n’importe quoi.

Vous ne devriez pas vous soucier de qui vous épient. (Image via  Phil Marden)

La confidentialité est possible avec le bon business model. La raison pour laquelle les grandes entreprises ne protègent pas nos informations est que leur business models reposent sur l’accès à nos informations. La valeur implicite de la confidentialité et la confiance qu’elle permet d’instaurer entre vous et vos utilisateurs est telle que vous pourriez probablement trouver d’autres façons de monétiser.

La confidentialité paie. Notre modèle n’accèdent pas aux informations. Nous sommes un fournisseur technologique, nous monétisons en fournissant notre technologie à des entreprises qui veulent construirent leurs propres assistants virtuels. Ces entreprises nous paient. Vous pouvez continuer à vous monétiser grâce aux données cela dit. Si vous voulez faire de la recommandation d’appli par exemple, vous pourriez exécuter l’algorithme directement sur le smartphone de l’utilisateur pour ne pas avoir ses informations sur votre serveur. Vous pourriez aussi faire des abonnements. La demande de confidentialité des consommateurs commence à émerger, nous l’avons vu avec les applis de messagerie et les gestionnaires de mots de passe. Les gens sont prêts à payer pour leur confidentialité.

Protéger la confidentialité, c’est facile. Cela ne devrait pas être le job d’un créateur de produit de se débrouiller avec l’AI et la confidentialité. C’est notre boulot en tant qu’entreprise technologique. Mais… je pense qu’il y a deux choses que vous pouvez faire. La première c’est de vous assurer de lancer autant de calculs que possible directement sur l’appareil de l’utilisateur car si les calculs se font sur l’appareil, une personne qui voudrait hacker des centaines de millions de gens devra hacker des centaines de millions de téléphones. La deuxième chose c’est la cryptographie. Vous pouvez faire tourner vos algorithmes directement sur des données encryptées. Quand vous combinez les deux, vous n’avez plus de raison d’accéder aux données des utilisateurs.

Lire en

Catégorie Media

Pays

Partager

Articles similaires