APRIL

S'abonner à flux APRIL
L'April a pour objectifs de promouvoir et défendre le logiciel libre et ses acteurs.
Mis à jour : il y a 4 min 27 sec

Code is Education. Un éditorial de rentrée de Véronique Bonnet, présidente de l'April.

il y a 2 heures 36 min

Code is Education.
Un éditorial de Véronique Bonnet, présidente de l’April.

« Le monde d'après », qui fait sauter certains comme des cabris, dans la jubilation du « hors-sol », peine à dissimuler ses pilotis idéologiques. À la résultante historique la plus surdéterminée, on prétend refaire une virginité. Telle Vénus surgissant de l'écume des flots, la mythologie de l'abolition du « monde d'avant » multiplie les représentations chaotiques, purement chronologiques, de ce qui arrive. Parler de mondes successifs, comme de vagues successives de la pandémie, pour se référer aux irruptions successives des crises sanitaire, économique, existentielle, écologique, peut faire figure de pis-aller explicatif commode, mais ne doit pas faire disparaître dans les sables la logique des événements.

Dans le monde de l’éducation, l'informatique a été, eu égard au contexte, présentée comme une amie prodigieuse, capable de remédier aux impossibilités du présentiel par la magie soudaine et massive du distanciel. Cette formulation discontinuiste laisse entendre que toute solution logicielle est bonne à prendre. Que sont les John Van Neumann, les Alan Türing, les Ian Murdock, les Aaron Schwartz devenus, dans leur exigence d'une informatique de l'autonomie ? Richard Matthew Stallman, dans les textes de la philosophie GNU concernant l’école, a souligné l’importance de ne pas accoutumer les enfants à une informatique de la docilité, de la subordination, pour que les futurs adultes et citoyens soient confortés dans leur aspiration à comprendre. Restituons ici, par quelques chaînes de raisons, une ascendance pour l'opposer à une autre, pour remettre en perspective « l'informatique de l'après » et la situer par rapport aux idéaux ou aux intérêts de « l’informatique d’avant. »

Dans son article de janvier 2000 publié dans le Harvard Magazine intitulé Code is Law – On Liberty in Cyberspace : Le code fait loi – De la liberté dans le cyberespace, dans la traduction de Framalang https://framablog.org/2010/05/22/code-is-law-lessig/, le grand juriste Lawrence Lessig met en garde contre une l’opinion selon laquelle la loi ne pourrait émaner que d’un État. À l’ère du cyberespace, la loi peut aussi bien être la résultante du code qui, en l’organisant, « fait loi » :

« Nous sommes à l’âge du cyberespace. Il possède lui aussi son propre régulateur, qui lui aussi menace les libertés. Ce régulateur, c’est le code  : le logiciel et le matériel qui font du cyberespace ce qu’il est. Ce code, ou cette architecture, définit la manière dont nous vivons le cyberespace. Il détermine s’il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l’accès à l’information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu’on commence à comprendre la nature de ce code, on se rend compte que, d’une myriade de manières, le code du cyberespace régule. »

D’où sa crainte :

« Cette régulation est en train de changer. Le code du cyberespace aussi. Et à mesure que ce code change, il en va de même pour la nature du cyberespace. Le cyberespace est un lieu qui protège l’anonymat, la liberté d’expression et l’autonomie des individus, il est en train de devenir un lieu qui rend l’anonymat plus difficile, l’expression moins libre et fait de l’autonomie individuelle l’apanage des seuls experts. Mon objectif, dans ce court article, est de faire comprendre cette régulation, et de montrer en quoi elle est en train de changer. Car si nous ne comprenons pas en quoi le cyberespace peut intégrer, ou supplanter, certaines valeurs de nos traditions constitutionnelles, nous perdrons le contrôle de ces valeurs. La loi du cyberespace – le code – les supplantera. »

En effet, alors que dans l’architecture initiale du cyberespace, les protocoles TCP/IP, outils de l’échange de données entre réseaux interconnectés, rendant difficile l’identification de ceux qui échangent et de ce qu’ils échangent, permettent le respect de la vie privée et la liberté d’expression, il se trouve que « le code n’est pas figé », et que cette « architecture peut changer. »

Rappelant que, techniquement, si le code fait la loi, il pourrait faire intervenir des nuances, Lawrence Lessig aperçoit le risque d’une mainmise progressive du code sur les utilisateurs, si des intérêts particuliers tendant vers le profilage des individus prennent le pas sur les idéaux des droits de l’être humain :

« La technologie pourrait permettre de certifier certains faits vous concernant, tout en gardant d’autres faits confidentiels. La technologie dans le cyberespace pourrait fonctionner selon une logique de «  moindre révélation  », ce qui n’est pas possible dans la réalité. Là encore, tout dépendrait de la manière dont elle a été conçue. Mais il n’est pas dit que les choses iront dans ce sens.[…] Il existe d’autres architectures en développement, de type «  une seule carte pour tout  ». Dans la logique de cette architecture, plus il y a d’informations, mieux c’est. Rien ne permet aux individus de faire le choix du moins. La différence entre ces deux conceptions est que l’une garantit la vie privée, alors que l’autre non. La première inscrit le respect de la vie privée au cœur de l’architecture d’identification, en laissant un choix clair à l’utilisateur sur ce qu’il veut révéler  ; la seconde néglige cette valeur. »

On le voit, l’auteur montre que le cyberespace est à la croisée des chemins. De deux choses l’une. Soit les dispositifs de régulation du cyberespace essaient de faire la part des choses, c’est-à-dire d’éviter que l’absence de régulation soit préjudiciable et porte atteinte au individus tout en préservant dans la mesure du possible la vie privée.
Soit ces dispositifs, intrusifs, tentent de faire de l’utilisateur, purement et simplement, un document, en croisant toutes ses métadonnées pour le caractériser intégralement, le profiler.

(Pour le dire dans le contexte qui est le nôtre, en 2020, nous en sommes à essayer d’éviter que sur les réseaux sociaux la liberté d’expression en vienne à permettre l’expression ouverte du racisme, sexisme. Mais au risque, considéré par certains comme une opportunité, de traiter chaque acteur du cyberespace comme ayant à rendre public tout ce qui le concerne, sans possibilité de garder un dimension privée.)

Quoi qu’il en soit, Lessig met, dès 2000, en évidence la montée en puissance insensible du pouvoir de la technologie, nommé par le philosophe Michel Foucault soft power, celui qui s’avance masqué et peut se manifester dans des logiciels apparemment anodins, qu’on soupçonnera d’autant moins qu’ils rendent service sur le court terme :

« La question n’est donc pas de savoir qui décidera de la manière dont le cyberespace est régulé  : ce seront les codeurs. La seule question est de savoir si nous aurons collectivement un rôle dans leur choix – et donc dans la manière dont ces valeurs sont garanties – ou si nous laisserons aux codeurs le soin de choisir nos valeurs à notre place. »

Quatorze ans plus tard un autre juriste, très impliqué dans le registre de la documentation, Lionel Maurel, alias Calimaq, dans un article intitulé : Comment « Code Is Law » s’est renversé en « Law Is Code », https://scinfolex.com/2014/01/24/comment-code-is-law-sest-renverse-en-la..., montre que le changement d’architecture pressenti par Lessig pouvait « machiniser la loi », la rendant insoupçonnable, non interrogeable et implacable :

« parce que le Code d’Internet a été construit sur des bases antagonistes avec celles de la propriété intellectuelle, l’axiome de Lessig tend aujourd’hui à se renverser : « Code Is Law » devient de plus en plus « Law Is Code ». Les principes du droit d’auteur peuvent en effet être transcrits en langage machine et interprétés automatiquement par des algorithmes. C’est la logique depuis longtemps à l’œuvre derrière les DRM (Digital Rights Management), première tentative technique d’agir sur le Code pour le mettre en conformité avec la loi. Mais au-delà des DRM, le « Droit de Regard de la Machine » déborde aujourd’hui les simples verrous numériques pour déboucher sur des systèmes de surveillance et de contrôle à grande échelle. ContentID, le Robocopyright de YouTube qui compare constamment les vidéos à des empreintes fournies par les titulaires de droits, donne par exemple une image de ce que peut devenir une application mécanisée du droit d’auteur déployée au niveau de l’une des plus grandes plateformes au monde. Faite à l’origine pour être interprétée et appliquée par des humains, la loi aujourd’hui se machinise ; elle peut entrer « dans le code » et ce mouvement provoque des conséquences susceptibles d’altérer en profondeur l’équilibre des libertés en ligne. »

Toutes proportions gardées, construisons deux analogies. Si la proposition « Code is Education », peut être portée par le mouvement du logiciel libre, montrons qu’il serait préjudiciable de le transformer en « Education is Code », c’est-à-dire de confier l’acte éducatif émancipateur à n’importe quel support qui serait porteur, dans ses rouages techniques, de dispositifs de confiscation. Soit de réduire le droit de regard de l’éducateur et de l’éduqué au droit de regard d’une technologie invasive qui introduirait dans ses mécanismes des couches logicielles intrusives.

Montrons, d’une part, que l’architecture de codage du logiciel libre est, en soi, éducative.
Mais montrons, d’autre part, qu’il ne faudrait pas prendre la partie pour le tout. Ni croire que toute séquence de code, toute plateforme logicielle, serait en soi éducative, que tout code serait éducation.

Code is Education. L’architecture de codage du logiciel libre est, en soi, éducative.

Dans son texte de la philosophie GNU, sur le site de la Free Software Foundation, intitulé Pourquoi les écoles devraient utiliser exclusivement du logiciel libre (https://www.gnu.org/education/edu-schools.fr.html) Richard Stallman rappelle les fondamentaux :

« L’école a une mission sociale celle de former les élèves à être citoyens d’une société forte, capable, indépendante, solidaire et libre. Elle doit promouvoir l'utilisation de logiciel libre tout comme elle promeut la conservation des ressources naturelles et le vote. En formant les élèves et étudiants au logiciel libre, elle donnera leur diplôme à des citoyens prêts à évoluer dans une société numérique libre. Cela aidera la société toute entière à échapper à la domination des multinationales. En revanche, enseigner un programme non libre revient à implanter la dépendance, ce qui va à l'encontre de la mission sociale de l'école. Les écoles ne doivent jamais le faire. »

En effet, le logiciel libre qui promeut les quatre libertés que sont la liberté d’exécuter le programme, la liberté d’étudier le programme pour éventuellement le modifier, la liberté de le copier et la liberté d’en distribuer des copies, modifiées ou non, permet au discernement et à la créativité de ceux qui apprennent une libre expression :

« Le logiciel libre permet aux élèves et étudiants d'apprendre comment les programmes fonctionnent. Certains programmeurs-nés, une fois adolescents, ont soif d'apprendre tout ce qu'il y a à savoir de leur ordinateur et de ses logiciels. Ils sont extrêmement curieux de lire le code source des programmes qu'ils utilisent tous les jours. »

Alors que les logiciels non libres verrouillent le code source, à plus forte raison lorsqu’ils captent des données de navigation à l’insu de l’utilisateur, jouent sur une crédulité et vont jusqu’à dissuader de connaître. Richard Stallman se réfère à la soif d’apprendre des programmeurs-nés ( natural-born programmers) , soit des jeunes qui sont très doués qui progressent rapidement dans cette discipline, soit plus largement au adolescents dont la curiosité est restée intacte et agit en véritable moteur pour un exceptionnel potentiel de progression dans l’écriture du code.

« Le logiciel privateur rejette cette soif de connaissance ; il dit : « Le savoir que tu recherches est un secret – apprendre est interdit ! » Le logiciel privateur est par essence l'ennemi de l'éducation, aussi ne doit-il pas être toléré à l'école, sauf comme objet de rétro-ingénierie. »

Code is Education au sens où une certaine informatique peut donner de l’appétit, et des ailes :

« Le logiciel libre encourage tout le monde à apprendre. La communauté du logiciel libre rejette ce « culte de la technologie » qui maintient le grand public dans l'ignorance de son fonctionnement ; nous encourageons les élèves et étudiants de tous âges et toutes origines à lire le code source et à apprendre autant qu'ils veulent savoir. Les écoles qui utilisent du logiciel libre permettent aux apprentis programmeurs doués de progresser. Comment les programmeurs-nés apprennent-ils à être de bons programmeurs ? Ils ont besoin de lire et de comprendre de vrais programmes que les gens utilisent réellement. On apprend à écrire du code bon et clair en lisant beaucoup de code et en écrivant beaucoup de code. Seul le logiciel libre le permet. »

Savoir technique-pratique, donc, mais aussi plus que cela. Richard Matthew Stallman fait état du pouvoir humanisant de la pratique du code, si le code est effectivement éducatif ; il amène les apprenants à se dépasser, en exerçant leur libre arbitre et leur sens de l’autre :

« La raison la plus profonde d'utiliser du logiciel libre dans les écoles concerne l'éducation morale. Nous attendons de l'école qu'elle enseigne aux élèves et étudiants des connaissances de base et des compétences utiles, mais c'est seulement une partie de sa mission. Sa mission la plus fondamentale est d'enseigner la bonne citoyenneté, y compris l'habitude d'aider les autres. Dans le domaine de l'informatique, cela signifie apprendre aux élèves à partager les logiciels. Il faut qu'on leur dise dès la maternelle : « Si tu apportes un logiciel à l'école, tu devras le partager avec les autres élèves. Tu dois montrer le code source à la classe, au cas où quelqu'un voudrait s'instruire. »

Le texte se conclut alors par un appel à tous les partenaires de l’éducation :
« Si vous êtes dans le milieu de l'enseignement – que ce soit comme élève, étudiant, enseignant, employé, administrateur, donateur ou parent – il est de votre responsabilité de faire campagne pour que l'école migre vers le logiciel libre. Si une demande faite en privé ne permet pas d'atteindre ce but, portez la question sur la place publique dans ces communautés ; c'est ainsi que les gens prendront conscience du problème et que vous trouverez des alliés dans votre campagne. »

Lorsque le 17 mars dernier, le professeur que je suis a dû très rapidement reconfigurer sa pratique pédagogique pour continuer à préparer les étudiants de seconde année aux concours des grandes écoles scientifiques et économiques, ceux de première année à la seconde année, mon enseignement, comme celui de mes collègues, a reposé tout entier sur des lignes de code, permettant une continuité entre les apprentissages et exercices accomplis in vivo et les modalités de substitution, à distance, qu’elles soient en audio ou en vidéo. En prenant bien soin de n’utiliser que des plateformes irréprochables, non intrusives, respectueuses de l’autonomie du professeur et de ses élèves, pour éviter l’appropriation indue de données d’autant plus sensibles qu’elles concernent le lien entre un enseignant et des adultes en construction qui ont besoin de pouvoir s’exercer à écrire et à parler sur des dispositifs hautement sécurisés. Par exemple, la plateforme education.apps (https://apps.education.fr/), proposant des outils logiciels libres est soucieuse de bonnes pratiques ; elle écrit sur sa page d’accueil :

« Vous y trouverez les outils essentiels et communs à tous les métiers de l’Éducation nationale. Les utilisateurs sont propriétaires de leurs données et sont, de fait, en charge de leur gestion. »

Mais toute informatique n’est pas éducative. Education is not Code.

Il ne faudrait pas prendre la partie pour le tout. Ni croire que toute séquence de code, toute plateforme, est en soi éducative, que tout logiciel peut être, les yeux fermés, proposé à des élèves ou des étudiants. Certes, avec la meilleure intention du monde, certains ont pu, dans l’urgence, ouvrir pour leurs classes des dispositifs informatiques sans en contrôler les licences ni les certifications d’innocuité. Et s’apercevoir que certaines caractéristiques pouvaient s’avérer toxiques, comme permettre le siphonnage sans vergogne des métadonnées des élèves. Il est alors essentiel de rectifier le tir. L’éducation ne saurait s’en remettre à n’importe quelle informatique.

Dans le Protagoras de Platon ( https://fr.wikisource.org/wiki/Protagoras_(trad._Chambry ), de 313c à 314b, le personnage Socrate demande ainsi à son interlocuteur de fiction, Hippocrate, homonyme du fameux médecin, s’il ne prend pas un risque considérable à confier son esprit au sophiste Protagoras dont les discours sont peut-être empoisonnés.

« Est-ce qu’un sophiste, Hippocrate, n’est pas une sorte de marchand et de trafiquant des denrées dont l’âme se nourrit ? [...] aussi faut-il craindre, ami, que le sophiste, en vantant sa marchandise, ne nous trompe comme ceux qui trafiquent des aliments du corps, marchands et détaillants ; ceux-ci en effet ignorent ce qui, dans les denrées qu’ils colportent, est bon ou mauvais pour le corps ; mais ils n’en vantent pas moins toute leur marchandise, et leurs acheteurs ne s’y connaissent pas mieux, à moins qu’il ne s’y trouve quelque maître de gymnastique ou quelque médecin. »

Platon joue ici sur les deux sens du terme grec pharmakon, qui signifie aussi bien le remède que le poison.

« Si donc tu sais ce qu’il y a dans ces marchandises de bon ou de mauvais pour l’âme, tu peux sans danger acheter les sciences et à Protagoras et à tout autre ; sinon, prends garde, bon jeune homme, de hasarder sur un coup de dés ce que tu as de plus cher ; car le danger est beaucoup plus grand dans l’achat des sciences que dans l’achat des aliments ; si en effet on achète des vivres et des boissons à un détaillant ou à un marchand, on peut les emporter dans les vases appropriés, et, avant de les introduire dans le corps en les buvant et en les mangeant, on peut les déposer chez soi, consulter, et faire appel à quelqu’un qui sait ce qu’il faut manger ou boire, et ce qu’il ne faut pas, combien il faut en prendre, et à quel moment, de sorte qu’on ne court pas grand danger à les acheter ; mais les sciences, on ne peut les emporter dans un autre vase, il faut, le prix payé, loger dans son âme même la science qu’on apprend et s’en aller, empoisonné ou conforté. »

Il en va de certains pourvoyeurs de logiciels comme des sophistes. Sous couvert de panacée, de remède universel, ils prétendent que l’éducation peut se fier à n’importe quelle informatique, que toute informatique fait du bien à qui l’utilise. Qu’un logiciel ne peut jamais faire de mal puisqu’un élève doit au moins apprendre à s’adapter à lui.

Préférons alors à ces outils logiciels peu soucieux d’éveiller le libre arbitre une informatique capable de se comporter effectivement en amie prodigieuse. L’informatique libre par laquelle « Code is Education ».

« Libre à vous ! » sur radio Cause Commune (29 septembre 2020)

il y a 5 heures 22 min
Start: 29 Septembre 2020 - 15:30End: 29 Septembre 2020 - 17:00

Réécouter en ligne

Lire la transcription

-->

76e émission Libre à vous ! de l'April en direct sur radio Cause Commune 93.1 FM en Île-de-France, et sur le site web de la radio, mardi 29 septembre 2020 de 15 h 30 à 17 h. Le podcast de l'émission et les podcasts par sujets traités sont disponibles dès que possible, quelques jours après l'émission en général.

Au programme :

Nous contacter pour poser une question :

Intervenir pendant le direct (mardi 29 septembre 2020 de 15h30 à 17h00) :

Écouter le direct mardi 29 septembre 2020 de 15 h 30 à 17 h 00   S'abonner au podcast S'abonner à la lettre d'actus

Les ambitions de l'émission Libre à vous !

La radio Cause commune a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons alors proposé de tenir une émission April intitulée Libre à vous ! l'émission pour comprendre et agir avec l'April — d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission est également consacrée aux actualités et actions de type sensibilisation. L'émission Libre à vous ! est principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées. Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission hebdomadaire, qui est diffusée en direct chaque mardi du mois de 15 h 30 à 17 h.

Les archives de l'émission

Écouter les émissions précédentes

Health Data Hub, les données de santé des Français hébergées par Microsoft - Décryptualité du 21 septembre 2020

jeu, 09/24/2020 - 15:11


Titre : Décryptualité du 21 septembre 2020 - Health Data Hub, les données de santé des Français hébergées par MS
Intervenants : Manu - Luc
Lieu : April - Studio d'enregistrement
Date : 21 septembre 2020
Durée : 15 min
Écouter ou enregistrer le podcast
Revue de presse pour la semaine 38 de l'année 2020
Licence de la transcription : Verbatim
Illustration : Stethoscope Flat Icon, Wikimedia Commons - Creative Commons Attribution-ShareAlike 4.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Cette semaine, on parle de la contestation autour de Health Data Hub, la plateforme des données de santé des Français hébergée sur le cloud Microsoft.

Transcription

Luc : Décryptualité. Semaine 38. Salut Manu.

Manu : Salut Luc.

Luc : On ne perd pas de temps, directement la revue de presse.

Manu : Une grosse revue de presse, il y a neuf thèmes principaux.

Luc : Clubic.com, « GNU/Linux : 10 distributions incontournables pour bien débuter », un article de Johan Gautreau.

Manu : Un article très intéressant, justement pour les débutants, qui liste un petit peu des distributions, des manières de commencer à installer un système d’exploitation libre. C’est plutôt sympa. Il y a des bonnes idées.

Luc : Journal du Net, « Intelligence artificielle : restez open ! », un article de Christophe Boitiaux.

Manu : Quelque chose d’assez général, une chronique qui parle effectivement d’IA, même si ça reste compliqué comme sujet et qui aborde par le fait qu’avec le cloud aujourd’hui, tout ce qui est informatique en nuage, il y a des gros outils qui favorisent les développements et puis que l’open source est très importante, notamment pour ne pas être bloqué avec certaines technologies ou certains fournisseurs, on peut passer de l’un à l’autre plus facilement.

Luc : Numerama, « Mozilla renonce à l'envoi de fichiers et aux mémos synchronisés en fermant Send et Notes », un article de Julien Lausson.

Manu : C’est dommage, c’étaient deux services et il me semble que Notes était supposé pas trop mal fonctionner. Mais il y a des gros mouvements en ce moment chez Mozilla, on en a parlé la semaine dernière, notamment le fait que les budgets sont en train de se réduire, donc ils réduisent la voilure, ils ont enlevé pas mal d’ingénieurs, malheureusement. Mozilla continue à faire Firefox qui est génial, que j’adore et que je vous encourage à installer, malgré tout.

Luc : cio-online.com, « Le Ministère de l'Éducation Nationale tente de justifier son choix de Microsoft », un article de la rédaction.

Manu : Il y a des gens qui se plaignent, le CNLL [Conseil national du logiciel libre], et puis il y a des remontées d’informations par Le Canard enchaîné qui montrent un petit peu qu’il y a des problèmes avec le ministère de l’Éducation et son accord avec Microsoft. Ils ont vendu l’Éducation nationale à Microsoft pour pas cher, en fait ils ont même accepté de l’argent, donc ça montre bien qu’il y a un problème et il semblerait qu’on n’est pas près d’en sortir.

Luc : EurActiv, « La directive sur le droit d’auteur fait des remous au sein du navire européen », un article de la rédaction.

Manu : C’est une lettre qui est remontée à Thierry Breton, le Commissaire européen au Marché Intérieur. Ça parle de problèmes qui sont en lien avec tout ce qui se fait en ce moment sur le droit d’auteur au niveau européen. Effectivement, il y a des choses assez embêtantes, des choses un petit peu trop contraignantes à notre goût. On va essayer d’étudier un petit peu ce qui se passe en ce moment. Il y aura sûrement des évolutions et des articles qui en parleront.

Luc : Le Monde.fr, « La justice européenne consacre « la neutralité du Net » dans l'UE », un article de la rédaction.

Manu : Là, hurrah ! C’est génial ! La neutralité du Net ça veut dire que le facteur n’a pas le droit de bloquer vos lettres, de regarder ce qu’il y a dedans et de les orienter différemment en fonction de ses envies. En tout cas là, maintenant, il y a des limites qui sont claires, qui ont été mises au niveau européen, on ne peut pas faire du zero-rating c’est-à-dire, en gros, vous fournir un accès différent pour certains sites, notamment en ne vous faisant pas payer, par exemple un accès à Wikipédia. Je crois que c’est au Portugal que ce problème a été soulevé.

Luc : Oui, c’était une offre au Portugal d’un fournisseur d’accès portugais qui a déclenché cette procédure. Donc très bonne nouvelle qu’on attendait depuis longtemps. En tout cas c’est un sujet qui est sur la table depuis un paquet de temps.
La gazette.fr, « La vague des communs arrive », un article de Delphine Gerbeau.

Manu : Les communs c’est une façon différente de voir l’économie et on en a beaucoup parlé parce qu’on aime beaucoup ce sujet-là. Ça aborde à nouveau l’idée, notamment en reparlant de cette prix Nobel qui avait mis en avant la gestion des communs. Tu te rappelles de son nom ?

Luc : Elinor Ostrom.

Manu : Quelqu’un de vraiment intéressant. C’est très bien que ça descende au niveau des communes. Les communs, c'est super approprié.

Luc : Association mode d'emploi, « Les Chatons concurrencent les GAFAM », un article de Laurent Costy et Angie Gaudion.

Manu : Ça parle des Chatons. On n’a pas Mag qui pourrait nous faire l‘énonciation des différentes lettres, mais en gros c’est une émanation de Framasoft, beaucoup de services, beaucoup de briques proposées sur Internet qui vous permettent de faire plein de choses super intéressantes et qui vous permettent de ne pas passer par les GAFAM.

Luc : Laurent Costy est administrateur de l’April, rappelons-le, et Angie est salariée de Framasoft, donc c’est une tribune, plutôt qu’un article pur et dur.
Dernier article dont on fera notre sujet du jour : ZDNet France, « Le Health Data Hub de nouveau attaqué devant le Conseil d'État », un article de Clarisse Treilles.

Manu : C’est tout un collectif, le CNLL, le Conseil national du logiciel libre, qui a saisi le Conseil d’État. Le sujet ce sont les données de santé des Français. L’État français a contracté avec Microsoft pour qu’elles soient hébergées sur le nuage de Microsoft et c’est très embêtant. Aujourd’hui, justement, il y a pas mal de choses qui remettent en cause cet accord qui est en train d’être discuté en ce moment même, notamment suite à l’invalidation du Privacy Shield.

Luc : Donc le Privacy Shield c’était une sorte d’accord entre les États-Unis et ses alliés disant « on va rester bons copains au niveau de l’utilisation des données que vous pourriez avoir hébergées chez nous. »

Manu : C’est le bouclier de vie privée.

Luc : De vie privée. Un truc dont on ne sait pas trop ce que ça pouvait valoir puisqu’à côté de ça il y a le Patriot Act qui fait que les entreprises américaines doivent faire ce que leur dit le gouvernement et mentir si nécessaire, au cas où.

Manu : C’est-à-dire que le gouvernement américain peut regarder dans tout ce qui est hébergé par les entreprises américaines et en plus, si on leur demande, les entreprises américaines doivent mentir et dire que non, elles ne travaillent pas avec le gouvernement.

Luc : On peut imaginer que le Privacy Shield protégeait dans la dimension commerciale l’exploitation et la revente des données. En tout cas ce truc n’existe plus.

Manu : Depuis juillet de cette année.

Luc : Voilà. À la tête des États-Unis il y a un type complètement taré, donc on ne sait pas ce que ça peut donner, raison de plus pour se dire qu’on veut rester maître de nos données. C’est pour ça que de toute façon on doit rester maître de nos données même si on s’entend bien avec les gens qui hébergent nos données parce qu’on ne sait pas de quoi l’avenir sera fait, là on en a la parfaite illustration.

Manu : Microsoft et l’État français, eux, revendiquent que ce sont des données qui sont chiffrées qui seront hébergées dans le cloud de Microsoft et qu’en plus de ça ce sont des données anonymisées, c’est-à-dire, en gros, qu’on n’a pas les noms et prénoms des Français dont les données devraient être hébergés sur Azur, c’est le nom du cloud. Donc là, ça devrait être bon quoi ! C’est chiffré, c’est anonymisé, c’est quoi le problème ? Non ?

Luc : De fait c’est étudié, c’est une recommandation1 de la CNIL qui a trouvé effectivement que ce truc-là pose quand même des problèmes. Il y a des gens qui disent que les recommandations de la CNIL ne sont pas applicables, que ce ne sera pas faisable, donc on a quand même de gros doutes là-dessus.

Manu : Et le chiffrement, d’une manière générale, il y a la NSA qui est en face, c’est la plus grosse administration de renseignement du monde, et dedans il y a des quantités juste phénoménales de mathématiciens. À priori ils ont des algorithmes qui leur permettent de percer beaucoup de systèmes. Et chiffrer ! Comment ils vont chiffrer ? Avec le nuage de Microsoft ? C’est le nuage qui va se chiffrer lui-même et qui va garantir que tout va bien ?

Luc : On pourrait imaginer chiffrer en amont. Encore une fois on ne sait pas de quoi l’avenir sera fait. Aujourd’hui les premiers ordinateurs quantiques tournent dans les laboratoires et on sait que c’est typiquement le genre de technologie dont on dit qu’à l’avenir elle sera extrêmement puissante pour déchiffrer et que toutes données chiffrées aujourd’hui seront quasi transparentes le jour où ce truc-là marchera de façon industrielle.

Manu : Et les États-Unis sont encore en avance sur le sujet !

Luc : Effectivement. Ça pose plein de questions. Une pétition2 a été lancée sur le site du Sénat, elle a été publiée le 16 septembre. Ce n’est pas une pétition de base qui est faite par on ne sait trop qui. Il faut qu’ils atteignent 100 000 signatures pour pouvoir exploiter cette pétition, c’est tout à fait atteignable.

Manu : Mais c’est un sujet qui est difficile. C’est peut-être atteignable théoriquement, mais je pense que ça va être difficilement atteignable parce qu’il faut faire remuer 100 000 personnes, en France, sur un sujet hyper technique.

Luc : Effectivement. Après c’est peut-être à ça que servent des associations qui s’intéressent aux libertés numériques, c’est effectivement aussi de relayer ce genre d’initiative.

Manu : C’est déjà pas mal. Il y a eu d’autres pétitions qui ont été montées dans le passé sur plusieurs autres sujets, notamment le ministère de l’Éducation qui est une autre branche de toutes ces problématiques. Là ça nous inquiète pas mal parce qu’une fois que les données de santé seront diffusées, on ne peut pas les reprendre, comme qui dirait. Donc là, si on les donne à nos amis américains, on ne sait pas trop ce que nos amis américains vont en faire derrière, on n’a aucune garantie, sans oublier que l’incompétence existe et qu’elle a déjà été remarquée. Parfois des données de ce type-là ont fuité. Je crois que les données des soldats américains ont fuité en Asie. En Inde, les données des passeports, des papiers d’identité des Indiens ont fuité en grosses quantités.

Luc : Il y a aussi la compétence : la santé avec la banque c’est l’eldorado annoncé pour les GAFAM, c’est le nouveau domaine dans lequel ils veulent mettre leurs billes et ils ont tout intérêt à avancer. Microsoft, avec ce genre de données-là, sera assise sur un gâteau très intéressant. En même temps il va y avoir des forces pour privatiser les services de santé, etc. Du coup, c’est mettre un pied dans cette direction et avoir des GAFAM qui sont en bonne position pour exploiter tout ça.

Manu : En Angleterre aussi on dirait qu’il y a des accords un peu semblables qui sont en train d’être mis en place.

Luc : Ils ont pris de l’avance puisque l’équivalent de la sécurité sociale en Grande-Bretagne a passé un accord avec Amazon et ils ont déjà connecté leurs bases de données sur les services Amazon de telle sorte que les assurés britanniques puissent choisir à l’avenir de faire gérer leurs données de santé par Amazon s’ils le veulent. Le truc est techniquement déjà fait et j’imagine bien cette logique économique disant « Amazon ce n’est pas cher, c’est gratuit, ils sont super puissants donc allons-y. Si les gens veulent y aller, pas de problème ! ». De la même façon qu’aujourd’hui les GAFAM sont alimentés avec les données des gens à tour de bras parce qu’ils offrent des services gratuits, plutôt pseudo-gratuits, la même chose est en train de se mettre en place avec les données de santé.

Manu : Moi je tiens à remarquer que ça peut être très intéressant, hyper-innovant, que les GAFAM qui s’emparent de ces sujets-là. Ils peuvent vraiment apporter une pierre importante à l’édifice. Calculer les données de santé mondiales, de tous les habitants, en ressortir des corpus d’informations qui leur permettront peut-être de mieux contrôler notre conduite, mieux contrôler notre santé, mieux contrôler ce qu’on dépense, ça peut améliorer la santé de l’être humain sur toute la planète !

Luc : Oui, c’est comme la surveillance en Chine ! Ça apporte plein d’avantages, notamment ça facilite la vie des gens qui sont notés, ils n’ont pas besoin de justifier des trucs, ils n’ont pas besoin de payer des cautions, etc. D’une façon générale la surveillance, le fait de générer de la donnée sur une population, ce n’est pas neuf, c’est une technique qui est apparue avec la modernité. On a commencé en faisant des statistiques, tous les trucs qu’il y a dans Foucault dont je suis super fan. Ça a des côtés liberticides pour les individus, mais collectivement ça reste une technique qui peut-être effectivement puissante et, dans le domaine de la santé, on peut faire des statistiques et avoir des nouveaux moyens très puissants pour faire de l’épidémiologie, savoir quels sont les vrais risques, ce qui se passe et ce qu’on peut en place comme politique, etc. Mais là où tu es un troll et un provocateur c’est que si ça, ça doit se faire, ce n’est pas les GAFAM qui le feront

Manu : Comment ça ? Si ! De fait ce sont les GAFAM qui le font en ce moment.

Luc : Oui. Mais ils passeront par la case privatisation des données ou, en tout cas. de l’exploitation des données, des données personnelles, etc. On sait qu’aux États-Unis où le domaine de la santé est très largement privatisé, le système de santé coûte extrêmement cher pour une performance très faible.

Manu : Je crois que c’est trois fois plus cher qu’en Europe en moyenne.

Luc : clairement les assurés américains, les clients, payent la part du bénéfice, du coup ils payent très cher pour avoir une protection sociale et des soins qui ne sont pas très bons, comparativement au coût que ça a. On sait quel est le modèle des GAFAM, on sait d’où ils viennent et on n’a pas trop de doutes sur le fait que c’est ça qu’ils veulent reproduire.

Manu : C’est une direction qu’ils sont, semble-t-il, en train de prendre vraiment très rapidement. Je rappelle que les dirigeants de certaines de ces entreprises sont eux aussi intéressés par la santé de manière générale, ils vieillissent comme nous tous, ils s’intéressent à ce qu’on appelle le transhumanisme, une évolution de l’être humain, peut-être que ça passe par ça, tu vois !

Luc : Theranos3 est là pour leur permettre de vivre très longtemps !

Manu : Theranos ?

Luc : C’était une énorme escroquerie avec une jeune femme très belle et très brillante qui disait qu’elle avait des technologies de pointe dans les biotechnologies pour vivre très longtemps. Tout le monde a dit : « Oh ! Super ». Elle a raflé un milliard de dollars et elle est partie avec. Oups !

Manu : Là attend on a confiance. Jeff Bezos n’a pas besoin d’un milliard de plus, il ne va pas partir si on lui donne juste un milliard. Jeff Bezos, c’est bon !

Luc : Oui, mais il aime bien avoir des milliards en plus. J’ai assez peu de doutes sur le fait qu’on va mettre les pieds dans un truc où on va être exploité pour faire plus de bénéfices, prendre plus de contrôle sur la vie des gens et puis rien ne les empêchera de croiser les données qu’ils ont déjà avec les nouvelles données, donc il y aura une emprise de plus en plus importante et là-dessus les secoueurs de téléphone ne nous sauveront peut-être pas !

Manu : Quoi ? De quoi tu parles ? Les quoi de téléphone ?

Luc : C’est un truc dont je suis assez fier. Il y a des années de ça on était tombé sur un article qui disait, je ne sais plus dans quel pays asiatique, probablement la Chine, que les assurances faisaient payer moins cher leur prime d’assurance si les gens mettaient une appli qui surveillait le nombre de pas qu’ils faisaient par jour.

Manu : Un podomètre.

Luc : Voilà un podomètre dans le téléphone en disant « si vous avez une activité physique plus importante et si vous marchez au lieu de prendre votre voiture, statistiquement on sait que c’est bon pour la santé, du coup vous paierez moins cher ». Quand j’avais lu ça, j’ai dit un « jour il y aura des gadgets qu’on posera sur le bureau pour secouer le téléphone pour faire croire qu’on marche ». De fait ça existe. Je suis assez auto-satisfait, ce jour-là j’ai fait une prédiction qui s’est révélée exacte.

Manu : Sachant que les assureurs vont potentiellement dans toutes ces directions-là, notamment suivre les conducteurs dans leur véhicule et savoir ce qu’ils font, leur style de conduite, est-ce que c’est un style de conduite à risques ou pas à risques. Là on est à deux doigts d’y arriver : est-ce que les conducteurs ont dépassé les limites de vitesse, est-ce qu’ils ont utilisé leur voiture tout simplement, ne serait-ce que ça. Toutes ces données vont commencer à être utilisées de plus en plus. Perso, en tant qu’informaticien, ça me plaît bien. J’aime beaucoup l’idée qu’on utilise l’informatique pour traiter les informations de la planète et pour améliorer le traitement de l’être humain. J’adore !

Luc : Et ça c’est un sujet ultra-politique et c’est pour ça que les actions d’associations comme l’April et d’autres associations du genre sont importantes, c’est que c’est politique. C’est-à-dire que oui on peut faire des choses bien pour l’humanité avec plus d’informations, mais on peut faire des trucs absolument abominables également et c’est bien un enjeu politique et c’est un enjeu de pouvoir. Savoir comment on fait pour tirer des bénéfices de toutes ces choses-là et non pas se faire exploiter et tomber dans un système d’oppression

Manu : Comme tu disais, Jeff Bezos sait tirer du bénéfice… mais pas pour l’humanité !

Luc : Voilà. C’est un machin un peu tombé en désuétude qu’on appelle l’intérêt général.

Manu : Ça n’existe plus ça, ça n’existe plus, voyons ! Tu trolles, c’est toi ce coup-ci.

Luc : OK ! On ne va penser rien qu’à nous pendant toute la semaine.

Manu : On va en profiter pour travailler notre santé. On va réfléchir.

Luc : Tu me donneras tes chiffres du cholestérol !

Manu : Oui. Je vais les partager. Je les ai mis sur un cloud quelque part, je crois que je ne les ai plus avec moi !

Luc : Salut tout le monde.

Manu : À la semaine prochaine.

Réunion du groupe de travail Sensibilisation de l'April jeudi 24 septembre 2020 à 17 h 30 (accueil à 17 h 15) à distance

mer, 09/23/2020 - 10:35
Start: 24 Septembre 2020 - 17:15End: 24 Septembre 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 24 septembre 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à rédiger le descriptif des cases du plateau du Jeu du Gnou (pour le projet Jeu du Gnou, voir plus bas).

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Surveillance numérique ; état des lieux - Radio Agora - Nanterre

mar, 09/22/2020 - 15:20


Titre : Surveillance numérique ; émission 1 : état des lieux
Intervenant·e·s : Audric Gueidan - Adèle Frantz
Lieu : Adèle surveille - Radio Agora - Nanterre, la wikiradio des initiatives citoyennes
Date : 16 juillet 2020
Durée : 40 min 52
Écouter le podcast
Licence de la transcription : Verbatim
Illustration : Direction libre, Open-DSI - Licence Creative Commons Attribution 3.0 non transposé
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

En compagnie d'Audric, médiateur informatique, Adèle s'interroge sur notre relation aux outils numériques. Dans quelles mesures représentent-ils un risque pour notre vie privée et nos libertés individuelles ? Pouvons-nous parler de « surveillance numérique » ?

Transcription (relu avec audio par véro)

Diverses voix off : Salut les Nanterriens.
La vie privée d’un athlète, ça se respecte même si Jean-Claude a peut-être tout essayé en matière d’aphrodisiaques et autres prothèses, en tout cas cela ne nous regarde pas.
Mon petit père, mets les cartouches dans le fusil, on lâche les chiens.
Ce n’est certainement pas à nous de divulguer les ragots comme quoi il serait homosexuel.
Tout à fait.
Cela ne nous regarde pas !

Adèle Frantzf : Deux évènements ont marqué mon confinement.
Le premier c’est quand j’ai reçu l’appel de ma vielle amie Annabelle — Salut Annabelle ! Avec Annabelle on a grandi ensemble en région PACA. Heureusement on n’a pas gardé notre accent en grandissant.

Voix off : Tu sais cet accent quand je parle tu sais d’où je viens.

Adèle Frantzf : Finalement moi j’ai préféré Nanterre et Annabelle est allée s’installer à Toulouse. Depuis, désolée Annabelle mais c’est vrai, elle a un chouille l’accent toulousain, mais bon !, on va lui pardonner.

Voix off : Traître !

Adèle Frantzf : Donc ce jour-là, en plein confinement, elle se baladait dans les rues de la ville rose avec son nouveau bébé tout neuf et son homme. Vous allez me dire mais que faisait-elle en plein confinement à flâner dans les rues avec son bébé alors qu’elle devrait être cloîtrée chez elle? Était-elle légitime d’être là ? Avait-elle rempli son autorisation ? Et le bébé avait-il une autorisation ? Ah ! Les Françaises sont quand même vraiment indisciplinées… Stop ! Déjà on se calme, je n’ai pas dit qu’elle flânait et puis la raison de son déplacement, cela ne nous regarde pas !
Toujours est-il qu’Annabelle a levé la tête quand elle a entendu une voix métallique voler au-dessus d’elle. C’était un joli drôle de drone qui flottait à quelques mètres de leurs têtes en susurrant : « Police nationale. Veuillez respecter les distances de sécurité ». Elle s’effraya d’abord « c’est quoi ce truc de taré ? », et puis elle a rigolé ensuite « c’est quoi ce truc de taré ? » Elle tourne la tête et voit un policier au coin de la rue faire son geek avec la manette, « mais c’est quoi ce truc de taré ? »
Et puis elle a oscillé comme ça un temps, entre le rire et l’angoisse.
Le deuxième évènement marquant de mon confinement c’est quand j’ai appris qu’une femme avait été mise en garde à vue non pas pour voir un clitoris mais pour avoir affiché une banderole sur la façade de sa maison avec écrit « Macronavirus, à quand la fin ? ». Dénoncée par un voisin ou tout simplement arrêtée après le passage d’une brigade, dans tous les cas l’ironie créative n’a pas plu. Ferme ta gueule, détour case prison, pan pan fessée, rentre au terrier. Confinée, oui, mais sois sage et n’insulte pas celui qui, à priori, est encore ton souverain auquel tu dois allégeance.

Ces deux drôles de drames m’ont fait l’effet d’une bombe.
Le premier me projeta directement dans 10/15 ans, quand le bébé d’Annabelle aura été biberonné aux bruits généralisés d’insectes robotisés et leurs gueules de mouches aux gros yeux voltant, furetant la moindre info, soumettant la populace au couvre-feu, surveillant les faits et gestes des révolutionnaires en herbes folles. Un temps où l’on deviendra mélancoliques du temps où le ciel était juste le ciel avec des nuages ou du bleu, peuplé de chants d’oiseaux, et le film La guerre des mondes nous semblera naïf et grotesque. Alors je prendrai le maquis, enfin, s’il reste des arbres, et je couperai le canon de la carabine du grand-père. Je jouis déjà à l’idée de tirer sur les drones avec mes balles de plomb et de les voir s’écraser au sol comme un amas vulgaire de fils et de vis. Je les finirai à coups de bâtons et je pendrai la micro-caméra encore à moitié opérante sous les yeux ronds de la Technopolice à l’autre bout. Oui, vous ne le saviez pas mais ça s’appelle la Technopolice, celle qui reste derrière les caméras de surveillance à Nice, caméras inutiles, caméras qui ont eu au moins l’avantage de faire de magnifiques images d’archives des attentats du 14 juillet. C’est l’Ina qui va être content. Mon bâton dans les mains et le drone tout penaud devant moi je dirai à la Technopolice [inaudible], avant de l’écraser lentement avec mon talon à la manière de Clint Eastwood avec sa cigarette. J’ai dit maquis, j’ai dit carabine, j’ai dit grand-père, Clint Eastwood, mais soyons clairs, je n’ai aucune mélancolie pour l’ancien temps.
Vous voyez, le coup de la banderole « Macronavirus », elle, me rappelle une surveillance à l’ancienne, celle de la Stasi. Le monde des croix gammées sur les murs, le monde sur écoute de La Liste de Schindler, le monde de la machine à écrire. « Macronavirus, à quand la fin ? » Les chiens de garde, depuis quelques années, n’ont même plus la décence de nous laisser l’illusion qu’on peut encore rire, critiquer et penser impunément. Mais bon ! Ça ce n’est pas nouveau.
Oui. La surveillance de masse du futur sera technologique. Je dirais même numérique, digitale.

Voix off : Vous parlez d’Internet, mais Internet c’est magique enfin ! C‘est la vie, c’est la libération, c‘est le cloud et tout ça. Je peux « zoomer » avec mes petits-enfants, je peux envoyer une photo de mes fraisiers à ma copine Germaine pour lui montrer que les miens sont mieux coupés.

Adèle Frantzf : Évidemment, une invention incroyable, ça dépend toujours dans quelles mains elle tombe. Parlez-en à feu Marie Curie qui n’aura pas vraiment idée de ce que les habitants d’Hiroshima subiront à la suite de sa découverte.
Donc le monde n’a pas attendu Internet pour surveiller et contrôler les plus réfractaires aux règles, mais cet outil apparaît comme l’outil idéal de surveillance de masse.
Oui, parce qu’il y a une entité qui me connaît mieux qu’un drone, mieux que mon voisin, mieux que la police, une entité qui sait que j’ai tapé « remèdes naturels contre les hémorroïdes » le 17 mai 2018 à 21 heures 18, même moi je ne m’en souvenais plus ! L’entité dont on parle, celle qui me connaît que moi, ce n’est pas que Google. L’entité, c’est cette liste des cinq géants du numérique, les GAFAM.

Voix off : C’est quoi ? Une mutuelle ?

Adèle Frantzf : Il s’agit de Google, Amazon, Facebook, Apple, Microsoft.

Voix off : Ils ont créé Internet, ils savent tout ce que vous faites, quand vous mangez, pissez, pensez, à midi ou à 3 heures du mat. GAFAM, 1984 la nouvelle mini-série Netflix.

Adèle Frantzf : Les GAFAM, c’est joli sur le papier, c’est l’émancipation humaine, le savoir, le mélange des cultures, la communication entre les êtres, la liberté d’expression. Tout ça c’est la partie émergée de l’iceberg.

Voix off : Putain ! Merde !

Adèle Frantzf : Et quel putain d’iceberg !

Voix off : Merci. Iceberg droit devant ! Arrêtons tout !

Adèle Frantzf : Et si on plongeait ensemble dans le monde invisible de la surveillance du Net ? Pour cela, j’ai invité Audric Gueidan, grand spécialiste de la surveillance digitale. On va plonger ensemble dans un nouveau cortex. Suivez-moi.
Salut Audric.

Audric Gueidan : Bonjour Adèle.

Adèle Frantzf : Audric, il y a cinq ans, tu troquais ton ordinateur Mac contre un système d’exploitation en mode logiciel libre et tout le monde à l’époque, je me rappelle, te regardait vraiment bizarrement. Tu disais qu’on était surveillés. Même moi je me disais « il est quand même un peu parano le mec », alors que maintenant c’est comme la question de la viande. Les gens sont de plus en plus sensibilisés à cette question et toi tu passes pour un pionnier en fait, c'est la classe totale ! Et puis entre temps tu es devenu médiateur numérique. Déjà, Audric, c’est quoi ce métier un peu bizarre, médiateur numérique ?

Audric Gueidan : C’est un terme un peu fourre-tout dans lequel je mets plein de choses. Déjà le fait de faire de la médiation c’est servir d’intermédiaire entre deux ou plusieurs choses pour faciliter un transfert de connaissances, par exemple d’un individu à l’autre. Dans le cadre du numérique, en tout cas pour moi, l’objectif c’est d’accompagner un utilisateur ou plusieurs à maîtriser les différentes technologies, les enjeux, les usages, toutes ces questions de la culture du numérique, de la culture du Libre, il y a beaucoup de sensibilisation. Du coup je fais la médiation entre l’homme et la machine, entre l’usager et l’outil informatique.
Concrètement ça peut être plein de trucs. Ça peut être des cours d’informatique un peu classiques, le b.a.-ba de l’apprentissage de l’ordinateur : comment allumer une machine, comment se créer une adresse mail, envoyer un courrier, des pièces jointes, transférer des fichiers, toutes ces choses-là. Des choses un peu plus techniques : l’utilisation d’une tablette, l’intérêt d’un smartphone, les applications qu’on peut utiliser dessus, et également toute la partie sensibiliser les gens aux enjeux du logiciel libre dont on va reparler. Évidemment parler de la surveillance et de la protection des données, c’est un sujet qui m’anime depuis quelque temps. On peut également parler de robotique ou de fab labs, les fameux lieux de fabrication numérique dans lesquels les gens apprennent grâce à leurs pairs – p,a, i, r, s, pas les papas. On apprend ensemble, on s’échange des compétences, toujours avec l’idée d’accompagner les gens, le public, pour les rendre autonomes, leur permettre de mieux comprendre, de faire par eux-mêmes et de prendre des décisions, d’avoir le choix.

Adèle Frantzf : Justement, pour mieux comprendre, parce que là tu parles de surveillance, tu parles de logiciel libre, en fait c’est quoi le Libre ? Ça veut dire que nous on n’est pas libres et que toi tu es là un peu pour nous libérer ? Et pourquoi c’est aussi important pour toi cette différence entre libre et pas libre ?

Audric Gueidan : Il faut déjà définir ce qu’est un logiciel libre.
Un logiciel qui est considéré comme libre va respecter quatre libertés :

  • la liberté 0 qui est la liberté d’utiliser le logiciel pour quelque usage que ce soit ;
  • la liberté 1 c’est étudier le fonctionnement du programme et de pouvoir l’adapter à son besoin, c’est-à-dire pouvoir accéder au code source. J’accède à la recette de cuisine du logiciel ou du système ;
  • la liberté 2 c’est pouvoir redistribuer des copies à tout le monde, je peux partager mon logiciel, légalement, je n’ai aucun problème à faire ça et même les développeurs vont être plutôt contents parce que ça va leur faire de la publicité ;
  • la liberté 3 c’est la liberté d’améliorer le programme, le logiciel et de le repartager avec peut-être des modifications, des améliorations que j’aurais apportées.

Évidemment quand je parle d’adapter, de regarder le code source, ça sous-entend que je comprends un petit peu les choses, donc il faut être développeur pour faire ça. Moi je ne suis pas développeur, par contre je peux m’appuyer justement sur la communauté des développeurs, toutes les personnes qui ont ces compétences techniques. Je préfère faire confiance à une communauté qu’à une entreprise privée qui va fonctionner comme une boîte noire et dans laquelle je ne vais pas pouvoir regarder ce qui se passe.

Voix off : C’est aujourd’hui l’entreprise privée qui vaut le plus cher au monde. Dans l’après-midi, Apple a vu son action grimper et franchir des sommets. L’entreprise est aujourd’hui valorisée en bourse à plus de 1000 milliards de dollars.

Adèle Frantzf : Est-ce que tu aurais des exemples de navigateurs qui seraient libres par rapport à un navigateur pas libre, des applications qui peuvent remplacer, en fait, les usages un peu plus marchands ?

Audric Gueidan : Un navigateur qui n’est pas libre en général c’est celui qui est installé par défaut dans ta machine. Si on prend l’exemple d’un ordinateur qui tourne sur Windows, eh bien le navigateur Microsoft Edge ou, avant, Internet Explorer, qui sont les deux navigateurs de Microsoft, ne sont pas des navigateurs libres. Par contre, le navigateur libre que tu vas pouvoir installer par la suite, c’est Mozilla Firefox1. C’est une communauté qui a développé Firefox, n’importe qui peut regarder le code source, peut vérifier que le logiciel fait bien ce qu’il dit qu’il fait – c’est le principe d’audit, je peux regarder ; il ne va pas être géré par une entreprise qui va monnayer toutes les informations. Mozilla est une fondation qui gère ça. Il y a une partie fondation avec de l’argent, il y a une partie plus bénévole et les deux fonctionnent bien ensemble.
La même chose sur ton téléphone portable. Par défaut, sur un téléphone Android – les téléphones Android c’est à peu près 80 % des téléphones quand même – tu as Google Chrome, qui appartient à Google, qui est installé dessus, qui n’est absolument pas libre et qui va récupérer un paquet de données sur tout ce que tu fais, tout ce que tu regardes sur Internet.

Adèle Frantzf : Pourquoi, quand on parle de surveillance de masse, la surveillance numérique est-elle la plus redoutée ? C’est quoi les enjeux dans un État capitaliste ? C’est quoi les enjeux dans un État totalitaire ? C’est quoi les dangers, finalement ?

Audric Gueidan : D’un point de vue de l’utilisateur il n’y a pas vraiment de dangers, en fait c’est juste une technologie, c’est un outil donc ça dépend comment on s’en sert. Je peux avoir un couteau de cuisine et couper les tomates avec ou je peux aller planter ma voisine, ce ne sera pas la faute de l’outil c’est ce que j’en fais. Internet c’est un peu pareil.
Je pense qu’Internet est un outil qui fait peur aux politiciens parce que ça permet aux citoyens, au peuple, de se rassembler, de communiquer, de se mettre d’accord ensemble et parfois de manière cachée, justement, et c’est en réfléchissant en dehors de la meute qu’on va pouvoir expérimenter et proposer de nouvelles choses. Donc pouvoir faire ça à l’abri des regards c’est quelque chose qui fait peur. C’est pour ça que depuis de nombreuses années, tous les gouvernements essayent de cadrer Internet, de fixer des règles, des lois, des limites. En France, par exemple, on essaye souvent de mettre le CSA [Conseil supérieur de l'audiovisuel] dans la boucle, le CSA qui contrôle la télévision, mais Internet ce n'est pas la télévision. La télévision c’est on s’assoit sur le canapé et on regarde un flux qui nous est envoyé. On peut choisir le flux, mais c’est tout.
Internet, on est actif, on participe à ce flux. Tout le monde peut être à la fois émetteur et récepteur, donc tout le monde peut parler. C’est vraiment la mise en application de ce qu’on appelle la liberté d’expression qui, avant, était plutôt relative. Certes, depuis de nombreuses années, on sait lire et écrire, sauf que tout le monde n’a pas la capacité de diffuser son texte, d’écrire un livre et de le faire lire aux autres. Même si dans les différents journaux auxquels je peux l'envoyer au courrier des lecteurs, eh bien si ce que je dis ne plaît pas, je peux être censuré. Alors que si je le fais sur Internet, je fais mon site, mon blog, je peux le partager et du coup n’importe qui peut avoir accès à mes informations. Et ça, ça fait peur.
Ce qui fait peur aussi c’est qu’à partir du moment où il y a une information sur Internet, globalement elle ne disparaît pas. Du coup, il est possible de déterrer une information, fausse ou vraie, mais une information et de mettre un personnage public, politique, face à ses contradictions. Il y a x mois cet homme politique a dit ça sur Twitter, aujourd’hui il dit l’inverse, eh bien hop !, je peux lui ressortir ça directement, sans filtre, et je lui mets devant les yeux « vous avez dit une connerie il y a quelques x mois ». On ne va pas l’oublier comme ça.
On nous balance souvent le prétexte du piratage, de la menace terroriste ou des sites pédopornographiques pour censurer un maximum de choses. On agite un mouchoir pour dire « attention il y a ça » et, en fait, on essaye de faire passer plein de lois liberticides.
Ce qui a essayé de se passer récemment avec la loi Avia, qui a d’ailleurs été censurée finalement, une loi qui avait pour objectif de censurer de manière plus au moins automatique les contenus en ligne qui étaient haineux. Ça part d’une bonne intention, évidemment qu’il faut faire disparaître la haine d’Internet, mais on ne peut pas se baser sur des algorithmes parce qu’il y a énormément de ce qu’on appelle des faux positifs. On ne peut pas non plus donner ce pouvoir-là aux grandes plateformes, aux fameux GAFAM, parce qu’il n’y a que ces plateformes-là qui techniquement pourraient le faire, c’est-à-dire Facebook, Twitter, Google, c’est à eux qu’on donne les clefs de la justice.

Adèle Frantzf : Il y a justement une émission de Cash Investigation qui a révélé les conditions de travail des employés de prestataires de Facebook ou de Google, je ne sais plus, censés nettoyer Internet, et qui se retrouvent, pour un salaire indécent, à trier toute la journée des vidéos toutes plus violentes les unes que les autres, des décapitations, des lacérations ou bien des vidéos à caractère pornographique. Là où c’est vrai que les sociétés de nettoyage à domicile veulent, et les clients aussi, que le travail des femmes et des hommes de ménage soit invisible, c’est vrai qu’on ne se pose jamais la question du nettoyage d’Internet. C’est aussi ça qui nous permet finalement de naviguer tranquillement sans être attaqués par des images ou des vidéos à caractère très violent.
Le problème, comme tu dis, c’est que c’est la plateforme qui fixe ses propres règles et, par exemple, c’est Facebook qui va censurer des images artistiques parce qu’on voit un sein donc c’est jugé à caractère pornographique. C’est aussi Facebook aussi qui, malgré la révolte de ses employés, décide de ne pas censurer les propos d’appel à la haine d’un certain Donald Trump.

Audric Gueidan : Sur Internet, le problème c’est qu’on ne peut pas laisser les grandes plateformes décider de ce qui est légal, de ce qui ne l’est pas. Il y a déjà des choses qui sont écrites dans la loi concernant les contenus haineux, il n’y avait pas besoin de la loi Avia. Pour les faire appliquer il faut juste mettre des moyens, c’est facile à dire, dans la justice.
On nous dit souvent qu’on est anonyme sur Internet. En fait c’est très facile techniquement de remonter à la trace, à la source et de savoir. Techniquement on peut repérer qui est l’utilisateur qui se cache sous un pseudo, qui a proféré des menaces de mort concernant quelqu’un sur Twitter, et cette personne aura des problèmes. En fait, tout cela existe déjà.

Adèle Frantzf : Alors c’est quoi les données personnelles ? Est-ce que tu peux nous expliquer un peu mieux pourquoi, en fait, ça vaut de l’or tout ça ?

Audric Gueidan : Une donnée c’est un élément qui va permettre de t’identifier toi soit directement soit par recoupement, par croisement d’informations.
Des données on va dire faciles à avoir c’est ton nom, ton prénom, peut-être ton pseudo, ton âge, ton sexe, ton adresse, d’ailleurs il y a une partie de ces données-là qui sont déjà publiques parce que tu existes aux yeux de l’État, aux yeux de la loi.
Ensuite il y a beaucoup de données qui vont être récupérées en fonction de que tu fais sur Internet, en fonction des articles que tu lis, combien de temps tu passes dessus, sur quels liens tu as cliqué, qu’est-ce que tu as partagé sur les réseaux, tout ça, ça va donner une espèce de fiche d’identité numérique de toi, de tes goûts, de ton orientation politique, sexuelle ou religieuse et tout ça, ça peut se monnayer.
C’est là où les grandes plateformes, les GAFAM – Google, Apple, Facebook, Amazon, Microsoft – s’en mettent plein les poches. D’un côté ça va permettre de t’envoyer de la publicité ciblée, vu qu’on sait qui tu es on peut vraiment t’envoyer quelque chose d’hyper-personnalisé. Je veux vendre un vélo, je vais déjà pouvoir regarder dans ma base de données l’âge des utilisateurs, on va dire que je veux quelqu’un qui a entre 30 et 40 ans, qui est sportif, qui habite à côté de Nanterre. Je peux cibler comme ça, envoyer ma publicité à ces personnes-là.

Adèle Frantzf : Concrètement, je prends l’exemple des chaussures allemandes Adidas. C’est un objet connecté, qui est assez pratique parce que, finalement, il donne des mesures sur l’activité physique, savoir si vous êtes en forme, ce que vous devez faire. En fait c’est quoi les avantages de ce truc ?

Audric Gueidan : Il y a des gens qui aiment bien savoir combien de kilomètres ils ont fait, quel était le parcours et partager tout ça aussi sur les réseaux.
Après, est-ce que j’ai envie que Adidas connaisse mon adresse, connaisse mon itinéraire préféré de footing ? On peut se dire « ouais ce n’est pas grave ! » Il y a une histoire assez rigolote. Il y a quelques mois des agents, j’ai envie des agents secrets, je ne sais plus exactement quel statut ils avaient, des personnes d’une agence du gouvernement américain avaient l’habitude de faire comme ça du footing autour de leur base. En fait, ils ont été identifiés comme ça. Peut-être qu’avec tes chaussures tu as, en plus, un bracelet connecté qui va prendre ton rythme cardiaque que ton assurance aimerait bien avoir. Si on se rend compte que « tiens, madame Machin a un problème cardiaque », du coup on va peut-être lui changer son tarif. Ça pose un autre problème.

Voix off : Découvrez la nouvelle brosse à dents électrique connectée Oral-B Smart Series et l’application Oral-B spécialement conçue pour des résultats de nettoyage optimaux. L’application est déjà en route pour vous guider en temps réel et vous aider à vous brosser les dents au moins deux minutes. Grâce au guide animé des quatre zones de votre bouche, vous pouvez être sûr d’avoir brossé de manière égale toutes les parties de votre bouche. Un indicateur de pression apparaît sur l’application lorsque votre brossage est trop vigoureux.
La page défilante, en bas de l’application, fait apparaître les actualités, la météo, des conseils pour la santé bucco-dentaire, des images de la nature, vos prochains rendez-vous sur votre calendrier et bien plus encore pendant votre brossage, tout en vous permettant de recevoir vos aides de brossage et le contrôle de la pression pour une expérience de brossage complet.

Adèle Frantzf : Fatigant, non ?

Voix off : Pourquoi ne pas prendre un petit moment pour vous-même avec l’application Petit Bouddha ? Détendez-vous. Reliez-vous directement aux pulsations de votre cœur. Nous savons que parler de réchauffement climatique ou de surveillance numérique et de tous ces sujets sensibles peut provoquer des montées de stress indéniables. Sachez que toute l’équipe de radio Agora est là pour vous. Respirez et détendez-vous. Bienvenue sur radio Agora.

Adèle Frantzf : Moi je sais que la publicité ciblée, par exemple, ça ne marche pas des masses sur moi, tu vois ! En fait, moi je vogue dans le cloud, tu sais, ce nuage tranquille et flou et du coup tout ça, cette surveillance de masse, ce n’est pas très réel en fait, ça reste dans mon ordinateur et j’ai toujours tendance à minimiser un peu l’impact des traceurs, des applis, des GAFAM, gnagnagna. Est-ce que pour toi, réellement, le virtuel a un réel impact, réel, sur la vie réelle ?

Audric Gueidan : Si je prends ton téléphone peut-être que dessus il y a l’application de ton parti politique, il y a peut-être une application de suivi de grossesse, une application médicale — je pense au suivi de diabète —, une appli de rencontre, toutes ces infos-là, pareil, ça permet déjà de te mettre dans une case. Est-ce que tu aurais envie que toutes ces infos soient marquées sur un panneau que tu trimballes toujours à côté de toi ? Est-ce que tu veux avoir marqué en gros pour qui tu votes, avec qui tu couches et ce que tu manges ? Je ne suis pas sûr.
Il y a une histoire qui est assez symptomatique de tout ça. Un site de rencontres adultères qui s’appelle Ashley Madison a été piraté il y a quelques années, ça doit faire trois/quatre ans, et la liste entière des utilisateurs s’est retrouvée sur Internet, comme ça, à la vue de tous.
Dans ce listing on retrouve des politiciens américains et également deux ou trois personnes qui sont, j’ai envie dire, dans la religion, je ne sais plus si ce sont des prêtres ou des pasteurs. Un certain nombre de personnes, du coup, se retrouvent affichées sur la place publique comme étant habituées d’un site de rencontres adultères. Il y en a plusieurs qui ont dit : « Non, ce n’est pas moi c’est faux », plusieurs qui ont avoué et il y en deux ou trois qui se sont suicidées. Donc oui, ça peut avoir un impact.

Adèle Frantzf : Moi, à part recevoir des amendes pour excès de vitesse, je ne fais de mal à personne et j’ai un peu rien à cacher !

Audric Gueidan : Peut-être que quelque chose que tu fais actuellement est légal, est normal, peut-être que dans quelques années ça ne sera plus le cas. Imaginons que je suis dans un système totalitaire, j’ai envie d’identifier et de faire disparaître tous mes opposants politiques, si je peux les identifier juste avec l’application du parti politique auquel ils ont adhéré ou le nombre de pages Facebook ou certains sujets qu’ils ont likés ou partagés, ça pose problème. Si on regarde aux États-Unis, Trump a pu identifier une partie de ses opposants via Facebook et via les caméras de surveillance qui étaient postées dans les rues pendant les manifestations. Si on regarde en Chine, si je commence à critiquer le gouvernement chinois je vais avoir des problèmes. C’est d’ailleurs ce qui se passe actuellement avec Hong-Kong. Toutes les personnes qui s’expriment en mal sur le sujet sont immédiatement arrêtées.

Adèle Frantzf : Durant le confinement on a fait un peu connaissance avec le logiciel Zoom qui vaut maintenant plus cher en bourse que les sept plus grosses compagnies aériennes mondiales réunies et qui est quand même accusé d’avoir fait fuiter les vidéos vers Facebook notamment. Il y a eu le petit robot chien jaune qui surveille les Singapouriens, il y a eu StopCovid.
Justement, si on revient au contexte international de la pandémie COVID-19, ça me fait penser à la théorie de Naomi Klein, La Stratégie du choc, qui soutient qu’à l’occasion de désastres, que ce soit des attentats, des catastrophes naturelles, des coups d’État, des changements de régime, les gouvernements en profiteraient pour imposer des réformes économiques ultralibérales et super restrictives au nom de la sécurité d’un pays. Est-ce que tu peux nous en dire plus sur la réaction des gouvernements face au choc de cette pandémie ?

Audric Gueidan : Tu l’as bien dit, à chaque fois qu’il y a un évènement important on en profite pour faire passer des lois ou des appareils de surveillance ; ça revient à ce que je disais tout à l’heure, en parlant notamment du prétexte du terrorisme.
On pense que la magie de la technologie va nous sauver, c’est ce qu’on appelle le techno-solutionnisme. On se dit qu’on va mettre en place une application, un appareil superbe qui va contrôler l’épidémie, gérer les personnes malades, peut-être en même temps identifier les manifestants.
En France, des drones ont été déployés par la police pour surveiller que les gens respectaient bien le confinement. Depuis, ces drones ont été considérés comme illégaux, ils n’ont plus le droit de voler, même si apparemment on en a vu certains pendant les manifestations. Bon ! Il y a des caméras de surveillance avec reconnaissance faciale qui ont été installées avec l’idée de savoir si tu portes ton masque ou pas alors que la CNIL [Commission nationale de l'informatique et des libertés] va dire « non il ne faut pas faire ça ». Certains maires se pensent au-dessus des lois !
Donc oui, on surveille, on flique, on file des amendes. Si on n’a pas notre papier pour sortir, pareil il y a eu un nombre important d’abus à ce niveau-là. On peut aller plus loin, d’ailleurs c’est ce qui s’est passé à Singapour. À Singapour ils avaient une application équivalente à StopCovid, sauf qu’ils se sont rendu compte que la population ne l’avait pas installée, ne s’en servait pas, exactement ce qui se passe en France d’ailleurs, du coup ils sont allés plus loin : quand tu rentres dans un bâtiment public tu dois scanner une espèce que QR Code qui à l’entrée avec ton téléphone, qui va t’identifier et qui va dire si tu es contaminé, contagieux et du coup qui va te permettre, ou pas ,de rentrer dans ce bâtiment.
On peut très bien imaginer ça en France en allant plus loin en disant que si tu n’as pas l’application StopCovid sur ton téléphone alors tu ne peux pas, je ne sais pas, rentrer dans la gare, tu ne peux pas aller faire tes courses.
Est-ce qu’on a envie d’aller vers ça ? Moi non.

Adèle Frantzf : Justement, qu’est-ce qui t’a choqué le plus ? Est-ce qu’il y a un évènement qui t’a vraiment choqué pendant cette période ?

Audric Gueidan : Le fait qu’en France on avance un peu avec des œillères, je pense notamment au chargé du numérique, Cédric O, qui a maintenu, qui y est allé à fond contre tous les avis des experts et des associations de défense des libertés individuelles en disant « on va faire notre application, on va faire un truc français. On ne veut pas s’appuyer sur ce qui existe, sur le protocole qui est utilisé par Apple et par Google, non, non, nous on va faire notre protocole à nous », qui ne fonctionne pas si bien que ça finalement.

Adèle Frantzf : Là tu parles de l’application StopCovid ?

Audric Gueidan : Oui, pour StopCovid. II y a un truc qui n’est pas logique : on dit « on veut du numérique souverain, du numérique français » et, en même temps, on voit par exemple que toutes les données de santé vont être hébergées par Microsoft. Bon ! On a envie de dire que ce n’est pas très logique !

Adèle Frantzf : Est-ce qu’il y a eu des choses bien pendant cette période ?

Audric Gueidan : Que la loi Avia ait été retoquée, je trouve ça bien.
En effet, que la police n’ait pas le droit normalement d’utiliser ses drones pour surveiller les gens je trouve également ça bien.
Je pense que ce qui est positif, par exemple, on va parler du télétravail : il y a beaucoup de personnes qui se sont rendu compte que oui, c’est possible de travailler à la maison et même souvent on travaille plus et mieux qu’en étant au boulot alors qu’il y avait beaucoup de patrons qui disaient « non, moi je ne veux pas que mes employés fassent du télétravail », ils avaient toutes les bonnes raisons. On voit que c’est possible. Il y a eu une espèce d’électrochoc en prouvant que le numérique ça peut aider, ça peut être bien ; même chose pour les jeux vidéos d’ailleurs. Il y a quelques mois l’OMS disait « attention, ça y est, le jeu vidéo est considéré comme une addiction » et en même temps, pendant le confinement, ils ont dit : « Oui, on avoue, les jeux vidéos permettent de calmer les enfants, c’est bien de jouer une à deux heures par jour ». Il y a, comme ça, plusieurs articles qui sont sortis, que j’ai trouvés intéressants.
On voit également qu’il y a un nombre important de personnes qui sont vraiment en grande difficulté face au numérique. On parle en moyenne de 20 % de la population qui n’est pas connectée ou qui a vraiment des difficultés.

Adèle Frantzf : C’est sûr qu’à 80 ans, à la vitesse où ça va, si je n’ai pas d’amis ou de la famille qui s’y connaît, je deviendrai incapable d’être à la page et on voit la Caf, la SNCF, qui ferment de plus en plus de guichets humains et l’État compte maintenant de plus en plus sur les associations qui sont en grande partie bénévoles pour rattraper le coup, en fait, et aider les personnes à apprivoiser le numérique. Finalement ces associations crient aussi au manque de moyens.

Audric Gueidan : Dans les associations je pense par exemple à Emmaüs Connect2 qui fait partie de Emmaüs, qui va être là pour former une partie de la population et accompagner les personnes qui sont en difficulté. Ça a été un petit peu accentué pendant le confinement et plusieurs initiatives ont été lancées pour essayer justement de pallier à ces différents manques que ça soit pour les étudiants, les écoliers qui se sont retrouvés à devoir travailler de chez eux ; que ça soit pour les indépendants ou les salariés qui, du jour au lendemain, doivent faire du télétravail alors qu’ils n’en ont jamais fait et ça ne se fait pas comme ça, ce n’est pas évident.

Adèle Frantzf : Aujourd’hui, est-ce que tu pourrais nous donner des noms d’associations, d’institutions étatiques, qui sont les garants de notre liberté numérique ? Qui est-ce qui se bat, en fait, pour que justement on ait plus accès au logiciel libre, qu’on puisse savoir un tout petit mieux comment nos données fuitent ? Vers qui se tourner en fait ?

Audric Gueidan : On peut imaginer qu’on pourrait se tourner vers notre pays qui est censé être garant de nos libertés. Pour moi c’est un petit peu compliqué de ce côté-là quand on parle de numérique parce que les États sont noyautés par les entreprises privées, on peut reparler de Microsoft qui est vraiment partout : en France, Microsoft est à la Défense, il est à la Culture, il est à l’Éducation, déjà ça pose un problème. Il y a ce qu’on appelle des back doors, on va dire que c’est la porte de derrière qui permet à l’entreprise d’aller voir discrètement ce que tu fais sur ta machine. Est-ce qu’il faut que les ordinateurs de l’armée française soient connectés en permanence aux serveurs de Microsoft qui est une entreprise américaine ? Je n’en suis pas certain.
Est-ce que j’ai envie que les collégiens, les étudiants soient formatés à utiliser des logiciels privés et payants : toute la suite office et compagnie est gratuite quand ils sont à l’école, mais lorsqu’ils sortent de l’école ils vont devoir acheter leurs logiciels — la première dose est gratuite et après c’est à vous de payer ! Je ne suis pas certain que ça soit une bonne chose, surtout quand il existe des associations ou des organismes qui vont se battre, qui vont prouver que c’est possible. Je pense notamment à Framasoft3 qui une association de promotion du logiciel libre qui met en place différents services. En 2013 ils avaient lancé la campagne « Dégooglisons Internet »4 pour prouver qu’on peut se passer de Google, on peut trouver des équivalents qui fonctionnent aussi bien et qui vont être éthiques, qui vont respecter notre vie privée, qui vont être libres, c’est-à-dire qu’après tout le monde peut les utiliser, les employer pour faire sa propre version. C’est d’ailleurs ce qui s’est passé : le Collectif des CHATONS5 a émergé de ça après, c’est le Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires. Ça permet en plus de faire de l’Internet on va dire local : je peux aller dans l’association de ma ville, récupérer des services numériques, une boîte mail, un hébergement de fichiers, de la même manière que je serais allé à l’AMAP du coin récupérer mon panier de fruits et légumes et ma boîte d’œufs. En plus, là je sais qui s'en occupe, je peux discuter avec ces personnes-là, je peux m’investir et monter en compétences si j’ai envie, si j’ai le temps, je peux devenir acteur de ma vie numérique.

Adèle Frantzf : Finalement, c’est un peu la même chose que dans l’agriculture, c’est-à-dire qu’on veut surtout du local et on veut de l’éthique. On veut du Libre, du bio, quoi ?

Audric Gueidan : C’est ça, sauf que pour passer au bio il faut être un petit peu sensibilisé, il faut quand même se renseigner, ce n’est pas forcément évident comme transition parce qu’on ne va pas trouver exactement la même chose, peut-être pas au même prix, peut-être pas en même quantité.
C’est la même chose de passer à des outils libres, éthiques, open source. On va dire que c’est un travail de tous les jours parce que certains outils, à un moment donné, vont être très bien et puis hop !, l’organisation va se faire racheter et finalement c’est devenu moins bien, maintenant il y a des trackers dedans, donc il ne faut plus utiliser cette application. Il y a besoin de faire de la veille à de sujet-là, globalement les gens n’ont pas le temps de faire ça, donc les associations le font.
La Quadrature du Net6 fait du bon travail pour sensibiliser les gens à cette question-là et pour prouver que le numérique sort de la sphère de l’ordinateur et du smartphone, ça touche toute notre vie, toute notre vie est numérique maintenant.
Je pense à ce qu’on appelle les GULL qui sont les groupes d’utilisateurs Linux et logiciels libres. Pareil, on va en trouver un petit peu partout en France. Ce sont des groupes de bénévoles qui vont être là pour vous encadrer, vous apprendre à utiliser Linux [GNU/Linux], si vous voulez passer à Linux qui est le système d’exploitation libre, qui vont globalement essayer de vous former.
On peut aller dans ce qu’on appelle les Cafés vie privée. Ce sont des lieux de formation, ça peut se passer partout, ça peut être dans un café comme le nom l’indique ou dans un restaurant, dans une bibliothèque, où on veut, et là on va apprendre à utiliser des outils qui protègent nos données, on va comprendre comment laisser moins de traces.
On peut aller dans sa bibliothèque de quartier, il y a beaucoup de bibliothécaires qui sont sensibilisés à ces questions-là.
Donc il y a du monde qui est présent sur le terrain pour justement garantir qu’on respecte au maximum nos libertés numériques.
L’idée, toujours, c‘est de pouvoir reprendre la main sur la machine, sur l’outil, sur le logiciel, comprendre comment ça marche et pouvoir faire des choix éclairés.

Diverses voix off : La NSA a placé sous surveillance tous les portables du monde.
Les Américains ne rêvent pas d’être libres, ce qu’ils veulent c’est la sécurité.
Oui, sauf que malheureusement les gens ignorent qu’ils ont passé un marché.

Adèle Frantzf : Tu sais comme moi que certains réalisateurs de films d’horreur ou de thrillers disent souvent que la réalité est bien pire que la fiction. Pour toi, quels films se rapprocheraient le plus de la dystopie qui pourrait nous attendre si on ne fait pas gaffe ?

Audric Gueidan : Un film qui est bien, qui est d’ailleurs adapté d’un livre à la base, Minority Report. Ça se passe dans un monde futuriste où il y a une brigade d’intervention qui peut arrêter les personnes avant qu’elles aient commis un crime. C’est ce qu’on appelle du prédictif. Il y a déjà eu, en tout cas en Chine, des arrestations préventives grâce ou à cause, ça dépend dans quel sens on se place, de ce qu’on appelle le big data, de toutes ces données qui vont être récupérées, qui vont permettre à des algorithmes d’imaginer que potentiellement cette personne va commettre un crime, donc on l’arrête en amont.
Un autre film qui est intéressant, qui pourrait faire peur, c’est WALL-E. C’est tout mignon, c’est tout joli, mais quand on regarde ce que les humains sont finalement devenus dans WALL-E, ils sont complètement dépendants des machines, ils sont juste rivés à leur écran, ils ne sont même plus capables de marcher par eux-mêmes et de réfléchir, ils ne savent plus comment ça fonctionne.
Un algorithme ce n’est pas une invention magique, il y a quelqu’un à la base qui a fait des choix et qui a décidé que le logiciel pouvait faire ça ou ça. Lawrence Lessig7 dit Code is Law, « Le code c’est la loi » et en effet le robot, l’algorithme, la machine, va suivre ce qui a été écrit dans son code.
Après pour sortir du film, il y a une série qui est très bien, tous les épisodes ne se valent pas, c’est Black Mirror, il y a certains épisodes où, en fait, ce n’est même plus le futur, on est vraiment déjà dedans.

Voix off : Comment ça fonctionne ?
Cette puce va accéder à vos engrams, à vos souvenirs relatifs à l’évènement.
Je ne suis pas intéressée par ce que vous auriez pu faire dans votre chambre sur votre temps libre.
Ce qui est privé doit rester privé.

Audric Gueidan : Voilà ce que je peux un petit peu conseiller.

Adèle Frantzf : Nous arrivons à la fin de cette première émission numérique. Merci beaucoup à toi Audric.

Audric Gueidan : Merci à toi.

Adèle Frantzf : Ne dites plus Twitter, dites Mastodon8. Ne dites plus YouTube, dites PeerTube9. Instagram devient PixelFed10, Zoom devient Jitsi11. Gmail devient Mailo12 ou Disroot et Google docs devient Framapad13. Ça, c’est la classe !
Reprenez la main sur la machine, le trafic, le contenu.
À Nanterre il y a l’Electrolab, il y a Nanterre Digital. Il y a Évelyne Jardin qui donne des formations à l’Agora. Il y a Lien intergénération 92, il y a La Ligue de l’enseignement qui avait diffusé notamment, je me souviens, un docu très facile à visionner, qu’on va mettre en lien sur le site de l’Agora, Nothing to Hide, « Rien à cacher », et il y a le Centre social Arc-en-ciel très actif notamment sur le festival Nanterre Digital.
À Rueil, il y a Rueil Digital et le Chaton le plus proche est à Courbevoie, il s’appelle Tedomum.
Enfin il y a la FFDN14, la Fédération des Fournisseurs d'Accès à Internet associatifs.
Évidemment la liste n’est pas exhaustive. Si vous voulez partager votre expérience aux Rencontres numériques nantériennes n’hésitez pas à laisser un commentaire sur radioagora-nanterre.fr.
J’en profite pour remercier toute l’équipe de radio Agora de cette opportunité qui nous est faite de nous exprimer librement. Bisous les Nantériens.Prochaine émission le mois prochain.

Décryptualité du 21 septembre 2020 - Health data hub, les données de santé des français hébergée par MS

mar, 09/22/2020 - 01:25

Écouter ou télécharger le Décryptualité du 21 septembre 2020 (15 minutes)

Cette semaine, on parle de la contestation autour de Helath Data Hub, la plateforme des données de santé des français hébergée sur le Cloud Microsoft.

Decryptualité sur Mastodon

 Syndiquer le contenu grâce à votre agrégateur de flux RSS

Musique de l'indicatif : Sebkha-Chott - CRPTS ND TPSTRZ - KHOLIK NEFAEHRTITIK

Revue de presse de l'April pour la semaine 38 de l'année 2020

lun, 09/21/2020 - 22:08

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Clubic.com] GNU/Linux: 10 distributions incontournables pour bien débuter

✍ Johan Gautreau, le dimanche 20 septembre 2020.

Windows 10 et macOS sont actuellement les systèmes d’exploitation pour ordinateur les plus répandus sur le marché grand public. GNU/Linux, fortement représenté dans le domaine professionnel jouit de son côté d’une très mauvaise image auprès des foules. Une mauvaise réputation qui n’a plus lieu d'être de nos jours tant les distributions se sont simplifiées et ouvertes pour séduire le grand public. Nous avons sélectionné pour vous 10 systèmes GNU/Linux à essayer d’urgence pour sauter le pas en toute sérénité!

[Journal du Net] Intelligence artificielle: restez open!

✍ Christophe Boitiaux, le vendredi 18 septembre 2020.

Aujourd’hui dans 90% des cas, le cloud public classique est suffisant pour gérer le volume de data nécessaire au machine learning. Mais demain, il est fort probable qu’on ne puisse se passer de l’informatique quantique.

[Numerama] Mozilla renonce à l'envoi de fichiers et aux mémos synchronisés en fermant Send et Notes

✍ Julien Lausson, le vendredi 18 septembre 2020.

L’outil de partage de fichiers Firefox Send ne sera pas relancé. Quant au service Notes, qui permet de prendre des mémos et de les synchroniser entre plusieurs appareils, il sera désactivé en novembre.

Et aussi: [ZDNet France] Le Health Data Hub de nouveau attaqué devant le Conseil d'Etat

✍ Clarisse Treilles, le jeudi 17 septembre 2020.

Un collectif a déposé un recours en urgence au Conseil d’Etat, qui avait déjà été appelé à trancher une première fois sur le sujet. Les requérants espèrent cette fois-ci faire peser l’invalidité du Privacy Shield.

[cio-online.com] Le Ministère de l'Education Nationale tente de justifier son choix de Microsoft

Le mercredi 16 septembre 2020.

Après l’article dans Le Canard Enchaîné et la plainte du CNLL, le Ministère de l’Education Nationale a transmis ses arguments en faveur de Microsoft.

Et aussi: [EurActiv] La directive sur le droit d'auteur fait des remous au sein du navire européen

Le mardi 15 septembre 2020.

Plusieurs sociétés civiles européennes ont écrit une lettre à Thierry Breton, commissaire européen au marché intérieur, mettant en lumière de «profondes inquiétudes» liées au document d’orientations de la Commission européenne sur la directive relative au droit d’auteur.

Et aussi: [Le Monde.fr] La justice européenne consacre «la neutralité du Net» dans l'UE

Le mardi 15 septembre 2020.

L’arrêt de la Cour de justice de l’Union européenne consacre mardi le principe d’égalité de traitement et d’accès des contenus en ligne.

Et aussi: [La gazette.fr] La vague des communs arrive

✍ Delphine Gerbeau, le mardi 15 septembre 2020.

Notion très ancienne, les communs connaissent depuis quelques années un regain d’intérêt, à l’heure de la recherche d'économies et d’autres façons de mener les politiques publiques. Plusieurs pays européens sont bien en avance sur le sujet, en France quelques collectivités tentent de donner forme à cette gestion “en commun”.

[Association mode d'emploi] Les Chatons concurrencent les Gafam

✍ Laurent Costy, Angie Gaudion, le mardi 15 septembre 2020.

Après une phase importante de déploiement d’outils numériques par les associations (1), on assiste à une rationalisation et à un intérêt marqué pour les logiciels libres. Ceux-ci permettent aujourd’hui de répondre aux principaux besoins des acteurs associatifs. Des besoins renforcés depuis la crise sanitaire du Covid-19 qui obligent à repenser nos modes de fonctionnement. Le collectif Chatons les aide à les découvrir et les adopter.

Bilan des vacances ! Décryptualité du 14 septembre 2020

lun, 09/21/2020 - 16:10


Titre : Décryptualité du 14 septembre 2020 - Bilan des vacances !
Intervenants : Manu - Luc
Lieu : April - Studio d'enregistrement
Date : 20 septembre 2020
Durée : 12 min
Écouter ou enregistrer le podcast
Revue de presse pour la semaine 37 de l'année 2020
Licence de la transcription : Verbatim
Illustration : Solved Puzzle - Licence Creative Commons CC01.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Rentrée tardive pour Décryptualité, l'occasion de faire un petit bilan de ce qui s'est passé pendant l'été et de se demander si nous sommes condamnés à nous répéter encore et toujours.

Transcription

Luc : Semaine 37. Salut Manu.

Manu : Salut Luc.

Luc : C’est la rentrée !

Manu : Eh oui ! On n’a pas Nicolas ni Nolwenn qui seront avec nous au cas par cas, au fur et à mesure de l’année. Donc on reprend, mais on n’a pas peur un peu de se répéter parce que j’ai l’impression qu’il n’est pas arrivé grand-chose, là quand même !

Luc : C’est toujours la même chose. C’est ce que nous dit une certaine personne que nous ne nommerons pas, en disant qu’on se répète, c’est toujours la même chose.

Manu : Les mêmes arguments…

Luc : Et le même genre d’évènements. Déjà sur la revue de presse, qu’est-ce qu’on a ?

Manu : On a cinq articles. Cinq sujets. Ça n’a pas été facile toutes les semaines pendant l’été, c’était un petit peu calme, mais là ça repart.

Luc : Le Point, « Alice Zeniter : « J’interroge les différentes possibilités de l'engagement » », un entretien mené par la rédaction, on n’a pas de nom.

Manu : Alice Zeniter est une auteure qui vient d’écrire un roman, Comme un empire dans un empire, et dedans, d’après ce qu’elle en dit, ça discute un petit peu économie, économie alternative, logiciel libre, partage du savoir de manière générale. C’est intéressant, donc elle a des héros qui sont positionnés sur une échelle politique avec des discours d’actualité de notre point de vue, mais novateurs dans les romans. Je ne crois pas qu’on voie souvent cela. Il faudra qu’en en discute avec Magali qui est libraire et qui est assez contente de voir apparaître ce genre de sujet.

Luc : ZDNet France, « Éducation nationale : voici pourquoi Microsoft est une drogue dure », un article de Louis Adam, une tribune même.

Manu : Oui, qui tape dur ! Parce que de la drogue c’est bien un sujet qu’on a déjà abordé, mais ça fait quand même toujours bizarre de voir ressortir ce genre d’approche. Effectivement, oui, le logiciel privateur c’est une drogue parce qu’on s’y habitue et on ne peut plus en décrocher après. Il semblerait, en tout cas, pour l’Éducation nationale.

Luc : Souvent ça fait partie de la stratégie de se rendre indispensable.
ouest-france.fr, « Arthur Le Vaillant : « On ne doit pas être des sportifs comme les autres » », une interview de la rédaction également.

Manu : Ça ne parle pas beaucoup de logiciel libre, c’est vrai, c’est un petit peu restreint, mais quand même ! Les gars innovent dans la voile et quand ils innovent, eh bien ils vont le faire de manière ouverte, sur le modèle du logiciel libre. Ça me fait plaisir de voir ça et j’aime bien le mettre en avant.

Luc : ZDNet France, « L'Inria veut faciliter l'accès aux technologies numériques open source », un article de Clarisse Treilles.

Manu : Exactement c’est l’Inria Academy, avec un « y » à la fin. Ils veulent former des gens, dans les entreprises surtout, avec l’idée du logiciel open source et certains logiciels open source. Ça a été repris dans pas mal d’endroits et je suppose qu’on en reparlera parce que l’Inria est une institution importante et qu’il fasse ça pour les entreprises…

Luc : Qui fait de la recherche dans le domaine de l'informatique.

Manu : Globalement et là c’est un gros truc. Ça fait plaisir.

Luc : Le Monde Informatique, « La Chine bannit Scratch, le langage d'apprentissage à la programmation », un article de Jacques Cheminat.

Manu : Ce ne sera pas le premier qui aura droit à ce traitement-là. C’est une censure, rien de moins. Il y a aussi Notepad++ qui s’est fait jarreter.

Luc : Un logiciel pour éditer du code, pour les gens qui ne connaissent pas.

Manu : Plutôt pour les développeurs. Il y a peut-être un point commun. Là c’est de la programmation aussi.

Luc : Ils se sont fait dégager sur quels critères ?

Manu : Parce qu’ils revendiquaient de la liberté, notamment pour les Ouïghours, et puis je crois que l’auteur de Notepad++ est d’origine asiatique.

Luc : Effectivement je me souviens, il y a des années de ça à l’époque de Sarkozy, Sarkozy avait dit des trucs qui ne lui avaient pas plu du tout et il avait ajouté des commentaires.

Manu : Une release notes.

Luc : Une release notes ou quelque chose comme ça. Les gens l’avaient critiqué, il avait dit « si vous n’êtes pas contents allez voir ailleurs ! » Mais quelle arrogance, quand même, de critiquer la politique de la Chine !

Manu : Oui, mais il n’est pas payé pour faire ce qu’il fait et il a bien le droit de s’exprimer même si c’est dans un milieu qui est un peu inhabituel. Après tout c’est un développeur, il utilise son lieu d’expression qui est son code, de manière générale.

Luc : De quoi on parle aujourd’hui, du coup, pour cette rentrée ?

Manu : On fait un petit recap sur l’été. Est-ce qu’il est arrivé des choses intéressantes cet été, voyons.

Luc : Pour voir si c’est effectivement toujours la même chose comme on disait en introduction, qu’est-ce que tu as retenu de cet été ?

Manu : Il y a des soucis avec Firefox, ils ont viré du monde et ça fait mal au cœur.

Luc : Un quart de leurs effectifs, 250 personnes, ce qui veut dire qu’il y a quand même beaucoup de gens à la Fondation Mozilla1. Ils ont beaucoup d’argent puisqu’ils avaient un accord avec Google pour mettre son moteur en avant et ils touchaient des millions pour ça.

Manu : Des centaines de millions.

Luc : Des centaines de millions. D’une part, au fil des années, Firefox s’est retrouvé en position minoritaire, donc Google n’a plus vraiment besoin d’eux. Avec la covid, le marché de la pub, tout ça, tout est un peu en train de se casser la gueule, donc ils ont décidé de lâcher du lest.

Manu : Licenciement de 250 personnes. Petit détail, mais qui fait toujours mal au cœur, elle est payée combien… ?

Luc : C’est un des trucs qui fait débat. Mitchell Baker, la personne responsable de la Fondation Mozilla, touche deux millions et demi de dollars par an. Pas mal de gens ont critiqué ça, ça ne couvre pas le salaire de 250 personnes, de 250 développeurs en tout cas si ce sont des développeurs, mais ça pose quand même la question de ce modèle de financement.
Je suis tenté de faire le parallèle avec Blender2, le logiciel de 3D, ce n’est pas du tout le même domaine, qui a complètement explosé, qui est maintenant une référence, qui a envahi le monde professionnel et qui est en train de grimper à toute vitesse. Il y a quelqu’un derrière ça, un Hollandais qui s’appelle Ton Roosendaal, et qui a toujours dit « oui, j’aurais peut-être pu devenir riche mais ça ne m’intéresse pas. Je préfère faire un beau logiciel, faire plaisir à des tas de gens et faire avancer quelque chose ». On n’a pas nécessairement besoin d’avoir quelqu’un qui touche des millions. On a plein de grands patrons, en Allemagne ou dans les pays nordiques, qui ne sont pas aussi bien payés que plein d’autres grands patrons. Mitchell Baker dit : « Sur le marché, dans une boîte normale, je toucherais beaucoup plus ».
Ça pose cette question du coup : est-ce que le marché justifie tout ? Et si maintenant ça doit être financé par la communauté, par les utilisateurs, est-ce que les utilisateurs ont envie de payer très grassement quelqu’un à la tête de ce truc-là ? En plus de ça les résultats ne sont pas faramineux, peut-être que le contexte ne l’est pas, en tout cas le mauvais résultat est là. Firefox est plutôt en mauvaise posture.

Manu : Petit détail, nous ne sommes pas les clients de Mozilla, nous ne payons pas Mozilla pour développer. C’est Google, de fait, et puis d’autres entreprises, d’autres sponsors qui le font. Donc ça reste compliqué comme débat.

Luc : En tout cas, si ça démontre une chose c’est que ce n’est peut-être pas une bonne idée d’être dépendant des GAFAM et que, à la fin, eh bien… on se fait avoir !

Manu : Petite remarque, quelque chose de positif, Facebook rejoint la fondation Linux3. Oui ! Ça fait plaisir !

Luc : Bien sûr !

Manu : Bon ! Ça fait bizarre, mais ils ne seront pas les premiers à tremper leurs pieds dans le monde du logiciel libre. Rappelons que Microsoft intègre un noyau Linux dans son système d’exploitation et qu’il travaille avec plein de logiciels libres.

Luc : Il y a plein de très grosses de boîtes de l’informatique qui font du Libre depuis longtemps. On aime bien le rappeler de temps en temps, tous les GAFAM qu’on aime critiquer peuvent exister grâce à du logiciel libre. Enfin tous ! Presque tous ! Mais Google, Amazon, n’existeraient pas s’il fallait qu’ils payent une licence pour chaque base de données et pour chaque système d’exploitation de serveurs qu’ils déploient. Et, en plus de ça, s’ils n’ont pas le droit de mettre les doigts dedans alors qu’ils font des trucs compliqués, je pense qu’ils ne s’en sortiraient pas. Ça n’aurait jamais pu exister.
Une chose que je dis de temps en temps quand je fais des conférences, j’aime bien dire « le logiciel libre c’est le logiciel qui est trop bien pour vous, parce que toutes ces grosses boîtes qui offrent des services aux gens – enfin les offrent, les vendent ! – directement ou indirectement, elles ont bien compris l’intérêt d’utiliser du logiciel libre et elles en profitent, mais n’en font pas profiter les utilisateurs. »
Donc bonne nouvelle sur Facebook, mais ils ont quand même brillé d’une lumière un peu plus sombre pendant l’été, l’Inde notamment accuse Facebook de mettre en péril sa démocratie ; ça c’était début septembre.
Un ingénieur qui a claqué la porte de Facebook en disant que Facebook faisait de la thune sur la haine et, en gros, ils font du profit sur la haine .
Il y a eu aussi ce rapport russe qui a fuité et qui révèle que le gouvernement de la Grande-Bretagne était incapable d’identifier les interférences du Kremlin dans le référendum pour le Brexit, ce qui démontre, si la source est fiable, que oui, les Russes ont effectivement bien fait le nécessaire.

Manu : Avec justement les informations qui avaient été transmises par Facebook à Cambridge Analytica4.

Luc : À Cambridge Analytica et à peu près à n’importe qui qui en voulait. Il y a deux ans, toutes les semaines on disait « ils ont filé tant de millions de données à untel et puis à untel, untel ». En fait, ils ont donné les données personnelles des gens à n’importe qui.

Manu : On fait confiance à Boris Johnson qui va relever le défi et s’attaquer au sujet, sûrement !

Luc : Oui ! Une chose que j’avais lue c’est que, à priori, il était très motivé pour que l’enquête n’aboutisse pas.
Donc Facebook rentre dans la Fondation Linux, mais ils ne nous ont pas déçus, on a quand même un petit goût de déjà-vu.

Manu : Oui. On peut s’attendre à ce que ça continue dans l’année. En plus, avec les élections qui arrivent, sûrement que le sujet va revenir sur la table. On rappelle qu’il y a eu pas mal de débats sur les tweets du président des États-Unis qui ont été annotés sur Twitter et sur Facebook. Mais ça fait débat parce que la liberté de discussion, la liberté de parole, c’est un sujet très important, notamment aux États-Unis, mais quand c’est Donald Trump qui parle, des fois on a envie que ce ne soit pas trop diffusé.

Luc : Quoi d’autre ?

Manu : Apple.

Luc : Oui Apple a banni Fortnite.

Manu : Fortnite, c’est quoi ?

Luc : C’est un jeu vidéo qui marche super bien, notamment chez les gamins.

Manu : Ils gagnent des millions en plus, je crois qu’ils sont entrés en bourse. Ça fait fureur.

Luc : Apple a dit : « Vous ne payez pas ce que vous nous devez », donc ils les ont juste dégagés en disant « vous n’existez plus chez nous ».

Manu : Exactement il y avait eu un problème avec le d’Apple où il fallait que 30 % des revenus de la plateforme soient payés et eux ont refusé si j’ai bien compris.

Luc : C’est ça, eh bien ils se sont fait dégager et Apple s’est également tournée, dans la même période, vers WordPress qui offre des services pour que les gens puissent ne pas installer WordPress qui est du logiciel libre, mais avoir le service directement. Mais là ils n’ont pas réussi.
On a également appris pendant l’été que Apple reporte tout le coût de la taxe GAFAM, un truc européen pour essayer de récupérer de l’argent chez ces gens qui payent très peu d’impôts, sur les développeurs qui font des applis dans le monde iOS. Donc pour Apple ça va, les bénéfices sont toujours là, et ce sont ses fournisseurs qui raquent à sa place.

Manu : Rappelons, petit détail, que pendant le confinement et toute cette période qu’on a vécue, eh bien les GAFAM se sont encore plus développés et ont enrichi encore plus les milliardaires qui sont à leur tête. Jeff Bezos nous remercie parce qu’on a contribué à son empire financier.

Luc : Amazon prend des proportions complètement folles. Pendant des années je pense qu’Amazon était un peu sous-estimée dans les GAFAM parce qu’on a dit « ils vendent des livres, ils vendent des trucs ».

Manu : C’est sous le radar de la vie privée, sous le radar des logiciels privateurs/logiciels libres, en tout cas moindre que les autres GAFAM.

Luc : En tout cas ils ont été accusés pendant l’été d’utiliser leur position pour, en gros, tirer profit de leurs vendeurs tiers, puisque, évidemment, chez Amazon il y a plein de boîtes qui utilisent Amazon pour vendre leurs produits. Ce qu’ils feraient c’est surveiller les produits innovants qui fonctionnent et dès ils en repèrent un ils mettent leurs boîtes sur le coup et ensuite ils prennent la place de l’autre, ils vont mettre en arrière plan le vendeur tiers et vendre ses produits à sa place. Il paraîtrait même qu’ils vont voir des boîtes qui ont des produits innovants et ils leur disent « eh vous faites un truc super, voilà un million, deux millions, rentrez au capital, mais donnez-nous plus d’infos pour savoir si on fait un bon investissement ». Évidemment les boîtes s’empressent de les donner. Et même topo, Amazon file ça à ses emprises et, dans la foulée, il y a un concurrent qui arrive et la boîte innovante dégage. Donc on voit qu’être sous l’emprise d’un GAFAM, il y a les données personnelles, mais également, dans le domaine économique, ce n’est pas loyal.

Manu : Mauvaise nouvelle, qui fait mal au cœur, la mort d’un philosophe.

Luc : Bernard Stiegler, effectivement.

Manu : Qu’on a régulièrement référencé dans la revue de presse.

Luc : Ça faisait longtemps qu’on n’en avait pas parlé. C’était un philosophe qui était très abordable dans ses explications, alors que certains sont très nébuleux. Malheureusement il est mort cet été, mais ses conférences sont toujours accessibles. Il s’intéressait notamment, entre autres choses, au logiciel libre, il avait même fait des conférences, des tables rondes, des évènements là-dessus. Occasion d’aller voir ses conférences et d’écouter ce qu’il racontait. C’est quand même assez intéressant.

Manu : Sur ce je te dis à la semaine prochaine.

Luc : On n’a pas répondu à la question du début : est-ce que c’est toujours la même chose ou pas ?

Manu : Moi je pense que ça s’améliore.

Luc : Oui. Moi je pense quand même que ça empire.

Manu : On verra la semaine prochaine !

Libre à vous ! Radio Cause Commune - Transcription de l'émission du 15 septembre 2020

lun, 09/21/2020 - 13:53


Titre : Émission Libre à vous ! diffusée mardi 15 septembre 2020 sur radio Cause Commune
Intervenant·e·s : Éric Fraudain - Sylvie Boldo - Fabien Tarissan - Véronique Bonnet - Frédéric Couchet - Étienne Gonnu à la régie
Lieu : Radio Cause Commune
Date : 15 septembre 2020
Durée : 1 h 30 min
Écouter ou enregistrer le podcast
Page des références utiles concernant cette émission
Licence de la transcription : Verbatim
Illustration : Bannière de l'émission Libre à vous ! de Antoine Bardelli, disponible selon les termes de, au moins, une des licences suivantes : licence CC BY-SA 2.0 FR ou supérieure ; licence Art Libre 1.3 ou supérieure et General Free Documentation License V1.3 ou supérieure. Logo de la radio Cause Commune utilisé avec l'accord de Olivier Grieco.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

toc_collapse=0; Sommaire 
  1. Première chronique musicale de Éric Fraudain du site Au Bout Du Fil
  2. Qu’est-ce que l’informatique ? avec Sylvie Boldo, directrice de recherche à l'Inria, et Fabien Tarissan chargé de recherche en informatique au CNRS, auteur de l'ouvrage Au cœur des réseaux. Des sciences aux citoyens, Le Pommier, 2019
  3. Chronique « Partager est bon » de Véronique Bonnet, professeure de philosophie et présidente de l'April : présentation et commentaire du texte de Richard Stallman « Mettre en application les critères du logiciel libre »
  4. Annonces

Voix off : Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.

Frédéric Couchet : Bonjour à toutes. Bonjour à tous.
L’informatique c’est quoi ? Ce sera le sujet principal de l’émission du jour avec au programme la première chronique musicale d’Éric Fraudain, également la chronique de Véronique Bonnet sur la mise en application des critères du logiciel libre.
Nous allons parler de tout cela dans l’émission du jour.

Vous êtes sur la radio Cause Commune, la voix des possibles, 93.1 FM et en DAB+ en Île-de-France et partout dans le monde sur le site causecommune.fm.

Soyez les bienvenus pour cette nouvelle édition de Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.

Le site web de l’April c’est april.org, vous pouvez y trouver une page consacrée à cette émission avec les liens et références utiles, les détails sur les pauses musicales et également tous les moyens de nous contacter.

Nous sommes mardi 15 septembre 2020, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.

Si vous souhaitez réagir, poser une question pendant ce direct, n’hésitez pas à vous connecter sur le salon web de la radio. Pour cela rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et retrouvez-nous sur le salon dédié à l’émission.

À la réalisation de l’émission aujourd’hui mon collègue Étienne Gonnu. Bonjour Étienne.

Frédéric Couchet : Salut Fred.

Frédéric Couchet : Nous vous souhaitons une excellente écoute.

Pour commencer on va vous proposer un petit quiz, ça faisait longtemps, on va poser une petite question et je fournirai la réponse au cours de l’émission sauf si vous la donnez avant. Lors de l’émission de la semaine dernière, mardi 8 septembre 2020, il y a eu la première chronique d’une association qui agit notamment pour l’appropriation de l’informatique par toutes et tous et dont les locaux sont situés à côté du studio de la radio dans le 18e arrondissement de Paris. Quel est le nom de cette association ? Vous pouvez évidemment répondre sur le salon web de la radio ou sur les différents réseaux sociaux, sinon je vous donnerai la réponse en cours d’émission.

Tout de suite place au premier sujet.

[Virgule musicale]

Première chronique musicale de Éric Fraudain du site Au Bout Du Fil

Frédéric Couchet : Nous allons commencer par la première chronique musicale d'Éric Fraudain. Nous avons en effet le plaisir d’accueillir dans l'équipe des chroniqueurs Éric Fraudain du site Au Bout Du Fil, au boutdufil.com. Éric propose une sélection de musiques libres dans tous les styles musicaux. Il va nous faire une chronique musicale mensuelle, la première va avoir lieu aujourd'hui. Éric va également nous aider pour la programmation musicale en nous sélectionnant pour chaque émission des pépites musicales libres. Bonjour Éric.

Éric Fraudain : Bonjour à tous, très heureux d'être parmi vous.

Frédéric Couchet : C'est super, on est ravis. Je crois qu'aujourd'hui tu veux nous parler d'un artiste qui s'appelle Cloudkicker.

[Éric Fraudain corrige la prononciation de Cloudkicker]

Frédéric Couchet : Tu apprendras que mon anglais est particulier. Je te laisse la parole sur Cloudkicker.

Éric Fraudain : Tout d’abord je suis heureux de pouvoir partager avec vous mes préférences musicales, évidemment sous licence Creative Commons Attribution. Aujourd'hui, je vous emmène à Columbus, dans l'Ohio, à la découverte d'un artiste américain, qui s'appelle Cloudkicker, qui assume sa différence et son goût pour l'expérimentation.
Derrière Cloudkicker se cache un musicien, vous vous en doutez, qui s'appelle Ben Sharp et qui produit sous Cloudkicker depuis 2007 maintenant des albums sous licence Creative Commons, essentiellement Creative Commons Attribution. Je ne sais pas pourquoi mais sur son dernier album il s'est mis à publier sous licence Creative Commons By-NC-SA, où il interdit l'utilisation commerciale de sa musique, c'est pour la petite histoire.
Aujourd'hui je vous propose d'écouter un titre qui s’appelle Night qui est le premier titre de son album Unending qui est paru le 15 août 2019, et comme pour ses précédents opus, Ben Sharp a pris la main sur la réalisation tout entière de son album que ce soit l'écriture, la composition, l'enregistrement, le mixage et le mastering.
Je vous propose d'écouter ce titre et on revient juste après pour la review.

Éric Fraudain : Cause Commune 93.1.

[Diffusion de Night de Cloudkicker]

Éric Fraudain : Vous venez d’écouter Night sous licence Creative Commons Attribution de Cloudkicker.
La musique de Cloudkicker est, comme son nom d’artiste, onirique mais rebelle, aérienne mais un peu folle. Elle suit ses propres règles, loin des conventions, et refuse de se ranger dans une case, preuve que son nom, Cloudkicker, n’a pas été choisi au hasard, en français on pourrait traduire par « le botteur de nuage ».
Vous l’avez entendu, Ben Sharp est un multi-instrumentaliste avec une spécialisation à la guitare. Il est indépendant et il a tout appris par lui-même. Do it yourself. Il possède malgré tout une certaine notoriété depuis plusieurs années et ce sans travailler son marketing, uniquement grâce à son talent. C’est vraiment remarquable, surtout à notre époque. Pour la petite histoire, il possède même une référence sur Wikipédia anglais où il a sa propre page.
Si on voulait s’amuser à catégoriser sa musique – parfois il est nécessaire de la ranger dans un style – on pourrait tout simplement la cataloguer en musique instrumentale post-rock ou post-métal.
Je dois vous avouer que la musique que vous venez d’entendre, Night, ne reflète pas complètement la musique de Ben Sharp, puisqu’il est quand même très orienté vers un style métal, post-métal instrumental. J’ai essayé de vous faire écouter une musique qui permet plutôt d’avoir une approche générale à la liste de sa musique. Si vous aimez son style je vous encourage vraiment à aller bien plus loin et à écouter ses compositions sur Bandcamp essentiellement. D’ailleurs toutes ses musiques sont téléchargeables sur Bandcamp gratuitement et, bien sûr, vous pouvez contribuer financièrement à hauteur de ce que vous souhaitez.

Ben Sharp est donc un musicien passionné, qui crie haut et fort son envie de produire continuellement de nouveaux sons, sortant ainsi des sentiers battus. Night est un morceau mélancolique qui ouvre l’album Unending en douceur, invitant l’auditeur à se concentrer sur lui-même, sur ses propres rêves et ses pensées intérieures.
Sa particularité se situe dans les détails. Il travaille énormément les effets à la guitare. J’ai pu noter un travail sur un effet qui est le chorus voire de la reverb. J’ai un doute, mais je pense qu’il doit utiliser un bottleneck pour produire cet effet à la guitare, glissant entre deux notes ; je ne suis pas sûr de moi mais je pense qu’il doit utiliser ce genre d’outil. Le bottleneck, pour ceux qui ne connaissent pas, c’est comme un tube de verre ou de métal que le guitariste place sur son doigt, qui fait le lien entre eux accords. D’habitude on voit plutôt cette technique sur les musiques spécifiques au blues notamment. Là on voit bien que Ben Sharp a essayé d’emprunter cet instrument dans propre univers.
Il faut noter aussi que le mixage est une partie intégrante dans sa composition et il peut passer plusieurs mois à travailler son mixage. C’est presque devenu obsessionnel chez lui.

Pour résumer, pour conclure, Cloudkicker met un point d’honneur à se renouveler d’un album à l’autre. Il aime expérimenter, explorer de nouveaux sons, créer de l’inédit. Chacun de ses albums est donc différent du précédent.

J’en ai terminé. Je tiens juste à rappeler que sa musique, Night, est disponible sous licence Creative Commons By, Attribution.
Frédéric c’est à toi.

Frédéric Couchet : Merci. On va juste rappeler que la licence Creative Attribution signifie simplement qu’on est libre d’utiliser la musique de Cloudkicker à condition unique de le citer, c’est-à-dire que vous pouvez la modifier, vous pouvez la réutiliser même pour des besoins commerciaux. C’est une des nombreuses licences libres qui existent.
Je précise que Éric nous a concocté un choix d’autres titres de Cloudkicker pour cette émission. Chacune des pauses musicales aujourd’hui sera consacrée à l’artiste Cloudkicker.
Je remercie Éric Fraudain du site auboutdufil.com qui va nous faire une chronique musicale mensuelle et qui s’occupe de la programmation de Libre à vous !
Éric on se retrouve le mois prochain.

Éric Fraudain : Pas de souci. Merci à tous. Bonne émission.

Frédéric Couchet : Bonne journée. À bientôt.
On va passer à une pause musicale

[Virgule musicale]

Frédéric Couchet : La pause musicale c’est à nouveau, évidemment, Cloudkicker. On va écouter Intro to Woum par Cloudkicker. On se retrouve juste après. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Voix off : Cause Commune 93.1.

Pause musicale : Intro to Woum par Cloudkicker.

Frédéric Couchet : Nous venons d’écouter Intro to Woum par Cloudkicker, disponible sous licence libre Creative Commons Attribution, c’est-à-dire partage à condition d’attribuer la source de la musique à l’artiste. Ce choix musical est de Éric Fraudain de auboutdufil.com. Vous retrouverez les références sur le site de l’April, april.com, et sur le site de la radio, causecommune.fm

Vous écoutez toujours l’émission Libre à vous ! sur radio Cause Commune, la voix des possibles, 93.1 FM et en DAB+ en Île-de-France et partout dans le monde sur le site causecommune.fm.
Nous allons passer au sujet principal.

[Virgule musicale]

Qu’est-ce que l’informatique ? avec Sylvie Boldo, directrice de recherche à l'Inria, et Fabien Tarissan chargé de recherche en informatique au CNRS, auteur de l'ouvrage Au cœur des réseaux. Des sciences aux citoyens, Le Pommier, 2019

Frédéric Couchet : Nous allons poursuivre par notre sujet principal qui va porter sur le thème « c’est quoi l’informatique ? », large question !, avec Sylvie Boldo directrice de recherche à l’Inria et Fabien Tarissan chargé de recherche en informatique au CNRS et auteur de l'ouvrage Au cœur des réseaux. Des sciences aux citoyens, Éditions Le Pommier en 2019.
Normalement Sylvie et Fabien sont en connexion téléphonique avec nous, on va vérifier. Est-ce que vous êtes là ?

Fabien Tarissan : Tout à fait. Bonjour.

Sylvie Boldo : Bonjour. Oui, nous sommes là.

Frédéric Couchet : Parfait. Je précise que c’est un premier test de connexion. On est encore en mode covid, donc Fabien et Sylvie sont à distance pendant que Étienne et moi sommes au studio.
L’idée de cette première émission, qui est née d’ailleurs lors d’une rencontre l’an dernier avec la Société informatique de France dont Fabien Tarissan est membre du conseil d’administration, c’est un peu d’expliquer ce qu’est l’informatique, parce que, en fait, l’informatique est omniprésente dans nos vies mais ce n’est pas sûr que les gens aient bien compris ce que c’est. Ce n’est probablement qu’une première émission parce que nous aborderons certains sujets peut-être plus en détail dans d’autres émissions ; là on va essayer de débroussailler un petit peu ce terrain. Première question, on va laisser se présenter les deux personnes que nous avons invitées. On va commencer par Sylvie Boldo.

Sylvie Boldo : Je suis chercheuse en informatique à l’Inria et l’Université Paris-Saclay et ma recherche porte sur la confiance dans les ordinateurs et les calculs sur ordinateur.

Frédéric Couchet : C’est un des sujets qu’on va aborder, justement cette fameuse de notion de confiance. Fabien Tarissan.

Fabien Tarissan : Je suis également chercheur mais au CNRS, en informatique également. Mon domaine d’expertise c’est plutôt les réseaux. J’ai aussi une casquette d’enseignant puisque je suis professeur attaché à l’École normale supérieure de Paris-Saclay et, vous l’avez dit, j’ai également une casquette en termes de médiation, de diffusion des connaissances auprès du plus grand nombre, du grand public pour faire simple : je suis, pour la Société informatique de France, vice-président en charge de la médiation scientifique.

Frédéric Couchet : D’accord. On va commencer par une question qui est peut-être un peu compliquée, mais on va essayer de rentrer un petit peu là-dedans, c’est la définition de l’informatique. Si on vous pose la question quand on vous rencontre la première fois et que vous expliquez que vous faites de l’informatique, comment vous définissez l’informatique ? Quels sont les grands concepts de l’informatique et après on va essayer de les détailler un petit peu. Sylvie Boldo.

Sylvie Boldo : Pour moi il y a quatre concepts importants en informatique qui sont : l’information, l’algorithme, le programme et la machine. Je ne sais pas si vous voulez que je détaille les quatre ou si Fabien veut le faire.

Frédéric Couchet : Vous allez pouvoir les détailler tous les deux. Vous, vous partez sur les quatre grands concepts. De votre côté, Fabien Tarissan, est-ce que vous partez sur ces mêmes quatre grands concepts ou est-ce que vous donnez une définition un peu différente ?

Fabien Tarissan : En général je commence par dire une formule, une définition qui est assez communément admise dans notre communauté qui est de dire que l’informatique c’est une science et que c’est une science du traitement automatisé de l’information. J’aime bien cette formule parce que, notamment,elle renvoie d’abord à la démarche scientifique qui est derrière l'informatique, l’informatique c’est une discipline scientifique, mais aussi à l’aspect technique, au traitement automatisé qui, lui, renvoie plutôt à l’ordinateur. Et effectivement, ensuite on peut se demander ce que recouvre, en termes de champs disciplinaires, la notion de science du traitement automatisé de l’information et là je suis tout à fait d’accord avec Sylvie, il faut travailler les quatre concepts qu’elle vient d’énoncer et qui sont d’ailleurs la manière que l’on a de présenter l’informatique au lycée dans les programmes d’enseignement scolaire. Ce sont effectivement quatre concepts qui traversent tous les champs de la discipline informatique.

Frédéric Couchet : D’accord. On va les aborder et on reviendra tout à l’heure sur la formation au collège, lycée, puis la formation des enseignants. Déjà on retient une science du traitement de l’information mais également une technique parce que, pendant longtemps, les gens n’ont sans doute vu l’informatique que d’un point de vue technique. Donc quatre grands concepts : information, algorithme, langage, machine.
Est-ce qu’on peut commencer un petit peu à détailler ces quatre grands concepts en commençant par le premier, l’information. Sylvie Boldo.

Silvie Boldo : L’information, il y en a partout autour de nous. Ça va effectivement des serveurs de données de vos mails à des choses très simples. Je voulais vous donner un exemple : vous imaginez une classe qui a des notes sur 20 et le professeur veut, par exemple, la moyenne ou la note maximale de ces notes. La donnée de base, eh bien ça va être les notes de tous les élèves. Après il va vouloir appliquer un algorithme qui est, par exemple, je vais sommer, faire la somme de toutes ces valeurs-là, diviser par le nombre d’élèves et là j’aurai la moyenne. Après, s’il veut le faire en vrai, il va écrire un programme dans un langage de son choix, donc il va devoir écrire un texte compréhensible par la machine qui va lui permettre de faire ce calcul-là. Après, ça va rentrer dans la machine qui va vous donner un résultat.
Quelque part l’informatique c’est passer au travers de ça, c’est-à-dire aller d’un certain nombre d’informations et d’idées de façon à concevoir un algorithme qui, après, va marcher sur une machine.

Frédéric Couchet : D’accord. C’est déjà intéressant et on va revenir sur ces quatre concepts, notamment avec Fabien, mais que les gens comprennent que « informatique » n’est pas synonyme forcément « d’ordinateur », on peut faire de l’informatique sans machine quelque part et on verra peut-être tout à l’heure dans l’initiation qu’on peut commencer à initier à l’informatique dès la maternelle, en fait sans ordinateur.
Fabien, sur ces quatre grands concepts et sur leur enchaînement donc information, algorithme, langage, machine ?

Fabien Tarissan : C’est intéressant de comprendre l’enchaînement. Sylvie a tout à fait raison. Comprendre ce qu’est l’informatique et avoir une démarche d’informaticien ou d’informaticienne c’est exactement ce qu’elle vient dire, c’est-à-dire mettre en œuvre l’ensemble de ces quatre concepts dans une démarche assez rigoureuse.
Si on les prend séparément j’aime bien commencer par définir ce qu’est un algorithme, parce que, notamment, l’algorithme n’est pas propre à l’informatique, ça existe depuis des milliers d’années, probablement depuis que les hommes et les femmes ont eu besoin de compter, de faire des calculs notamment sur les surfaces agraires, etc. On retrouve des algorithmes dans l’Antiquité.
Qu’est-ce que c’est qu’un algorithme ? C’est une séquence d’instructions qui est censée être simple, élémentaire, qui est censée être non ambiguë, dont l’interprétation ne dépend pas de la personne qui reçoit cette séquence d’instructions, et surtout qui résout un problème donné. L’exemple que j’aime bien prendre, notamment devant un public très jeune, c’est l’exemple de la recette de cuisine. Si vous voulez faire un gâteau au chocolat, vous suivez une recette, vous prenez tant d’œufs, tant de proportions de beurre, de farine, vous chauffez votre four à telle température, et normalement, invariablement, à la fin vous allez obtenir un gâteau au chocolat. Ce que j’aime bien dans cet exemple c’est qu’on peut très vite sentir qu’on n’a pas besoin de comprendre pourquoi ça marche, on n’a pas besoin de comprendre l’alchimie qui s’opère entre les ingrédients, à la fin, invariablement, on obtient un gâteau au chocolat. Et c’est ça qui est un petit peu au cœur d’un algorithme. Si on suit la procédure qui est exprimée par cette séquence d’instructions dans un algorithme, alors on obtient la résolution du problème auquel s’attaque l’algorithme.
Après, si on veut enchaîner et comprendre la dynamique avec les autres facettes, avec l’exemple de la recette on sent bien qu’on n’est pas dans l’algorithme informatique, d’accord. Il y a des choses qui caractérisent les algorithmes dits informatiques des autres, il y a plusieurs points particuliers, mais il y en a qui nous amène au deuxième concept qui est que les algorithmes informatiques ont pour vocation, ont pour destinée à être opérés non pas par des êtres humains mais par des machines. Ça nous amène au deuxième concept qui a été évoqué par Sylvie tout à l’heure qui est celui de machine. Il faut comprendre comment s’organise une machine qui traite automatiquement de l’information. Qu’est-ce que c’est qu’un système d’exploitation ? Qu’est-ce que c’est qu’un fichier ? Qu’est-ce qui se passe quand on met des ordinateurs connectés entre eux et qu’on crée des réseaux ?
Du coup, on a ces deux concepts qui interagissent, on a quelque chose de très abstrait, un algorithme, on a quelque chose de très concret qui est une machine et là se joue quelque chose qui est de faire correspondre ces deux mondes. Et là on a besoin d’un cadre très formel pour exprimer ce qu’est un algorithme pour une machine. C’est donc ça l’exercice de la programmation et de comprendre ce qu’est un langage de programmation. Là toute la question, notamment dans le cadre de l’enseignement, c’est de faire comprendre quels sont les éléments clefs qu’un langage doit avoir pour rendre opérationnel ce que les algorithmes veulent faire et le rendre exécutable par une machine.
On voit bien que ces points-là ont une dynamique ensemble. Ils sont en même temps très distincts et, en même temps, ils parlent un petit peu de la même chose : on a les algorithmes du côté très abstrait, la machine du côté concret et le langage qui fait opérer les deux.

Frédéric Couchet : D’accord. Je suppose qu’il y a plusieurs façons de résoudre un même problème, donc plusieurs algorithmes possibles. Par exemple si on veut trier des objets, il y a sans doute plusieurs façons de trier des objets et il y a également plusieurs langages qui existent pour mettre en œuvre cet algorithme de façon compréhensible par l’ordinateur ?

Fabien Tarissan : Tout à fait. D’ailleurs c’est une des choses que l’on enseigne très vite quand on enseigne l’algorithmique, c’est d’essayer de raisonner sur les algorithmes d’abord pour des choses très importantes qui sont être capable d’être sûr, donc de prouver – on est vraiment dans le domaine mathématique – que l’algorithme est correct, qu’il fait ce qu’il est censé faire, qu’il termine, c’est-à-dire qu’il va répondre à un moment donné. On évalue aussi ce qu’on appelle sa complexité, c’est-à-dire, grosso modo, le temps qu’il va mettre pour répondre à un problème. Et là, effectivement, on peut se mettre à comparer des algorithmes qui, en un sens, ont envie de faire tous la même chose, ils résolvent le même problème, simplement ils ne mettent peut-être pas tous le même temps à le faire.
Il y a effectivement plusieurs méthodes pour répondre à un problème et on peut se mettre à comparer ces méthodes de façon très formelle pour, du coup, choisir la plus optimale.

Frédéric Couchet : Sylvie Boldo, justement, complétez sur ces quatre facettes.

Sylvie Boldo : Pour compléter ma réponse parce que j’ai trouvé que l’exemple du tri des valeurs est intéressant. Quand on apprend le piano on fait des gammes, quand on apprend l’informatique on fait des gammes et parmi ces gammes il y a effectivement les algorithmes de tri. Dans l’enseignement de l’informatique il y a effectivement un certain nombre d’algorithmes de tri qui sont appris. C’est vraiment un exemple clef de la littérature informatique.

Frédéric Couchet : Je n’ai pas pris cet exemple totalement au hasard. Ayant été étudiant en informatique, c’est effectivement une des premières choses qu’on nous a expliquée, qu’on nous a demandé de résoudre, les algorithmes de tri. Effectivement quand il s’agit de trier 10 objets, peu importe finalement l’algorithme, mais quand il s’agit d’en trier des millions voire des milliards, évidemment la complexité de l’algorithme, comme l’expliquait Fabien Tarissan, est importante.
Le premier point important de cette discussion pour les gens qui écoutent, est qu'ils comprennent finalement que l’informatique ce sont quatre grands champs qui sont liés entre eux : information-données, l’algorithme, le langage et les machines, avec ordinateurs aujourd’hui tels qu’on les connaît, mais ça peut être d’autres machines, ça peut être des machines dans des voitures, dans des avions, dans des téléphones, etc.
Sur cette notion de quatre grands concepts liés entre eux, est-ce que vous voulez ajouter quelque chose avant qu’on passe au thème suivant ?

Fabien Tarissan : On peut peut-être rappeler une formule d’un de nos grands pontes en informatique, Edsger Dijkstra, qui a dit quelque chose que vous avez repris au début de l’émission : « L'informatique n'est pas plus la science des ordinateurs que l'astronomie n’est celle des télescopes. ». Je pense que c’est important, effectivement, de démystifier ça, de décorréler un petit peu l’image que le grand public peut avoir de l’informatique à travers juste de l’objet machine et comprendre que derrière il y a une démarche scientifique qu’il est important également de percevoir et de comprendre.

Frédéric Couchet : D’accord. Sylvie est-ce que vous voulez ajouter quelque chose sur cette partie ?

Sylvie Boldo : Juste un petit complément. Effectivement, les gens imaginent un ordinateur. Ce que j’aime faire dans les classes de petits c’est leur apporter un ordinateur en morceaux pour qu’ils voient le processeur. Les enfants sont fascinés d’avoir entre les mains un processeur, mais effectivement, ça ne veut pas dire que l’informatique repose sur des processeurs, on peut faire de l’informatique débranchée.

Frédéric Couchet : On va en parler tout à l’heure.

Sylvie Boldo : On va en reparler, oui.

Frédéric Couchet : Votre expérience m’amuse parce que, quand mes enfants étaient encore petits, je leur ai ouvert le capot d’un ordinateur, à l’époque où on pouvait encore le faire facilement, pour leur montrer ce qu’il y a dedans et c’était quand même très passionnant. On va parler justement de la partie déconnectée tout à l’heure.
Deuxième thème un plus rapide c’est peut-être donner quelques dates. Est-ce qu’il y a quelques dates clefs dans l’histoire de l’informatique. Tout à l’heure Fabien Tarissan disait que les algorithmes ça n’avait rien de nouveau, c’était arrivé avec la création de l’humanité quelque part. Est-ce qu’il y a des dates clefs à retenir dans l’histoire de l’informatique ? Sylvie ou Fabien, qui veut commencer ?

Sylvie Boldo : Ce que j’aime bien c’est la machine de Blaise Pascal au 17e siècle, la Pascaline, qui est effectivement le début des calculs automatisés. Après il y a d’autres outils. C’est une machine que j’aime beaucoup et ça montre qu’en fait faire des calculs à la main c’est pénible, donc on veut les automatiser, donc on veut les automatiser depuis très longtemps, déjà au 17e siècle. Maintenant on va beaucoup plus vite, mais on a toujours une machine à calculer.

Frédéric Couchet : Fabien Tarissan.

Fabien Tarissan : C’est marrant. Si on part sur le côté technique, sur les machines, j’aime bien aussi compléter ce genre de machines avec des machines qui n’ont rien à voir avec l’informatique à priori, en tout cas auxquelles on ne pense pas en premier, que sont la machine à tisser. Pourquoi ? Parce que ce sont des exemples de machines programmables. Donc la machine à tisser, les orgues de Barbarie sont des machines dans lesquelles on va changer un petit bout à l’intérieur et ça va totalement changer la sortie de cette machine et c’est quelque chose qui est aussi au cœur du fonctionnement de l’informatique, enfin de l’aspect technique de l’informatique.
En termes de dates, ce que j’aime bien citer à mes élèves de première année, c’est rappeler que la naissance de l’informatique telle qu’on la connaît maintenant, ce sont les années 1950, fin des années 1940 on a les premiers ordinateurs et en fait on a, un tout petit peu avant, un texte fondamental qui a été écrit par Alan Turing, qui me semble fondamental, dans lequel est énoncé pour la première fois le concept de machine universelle qui est une description très abstraite de ce que pourrait être un ordinateur et cette description est faite dix ans avant les premiers ordinateurs tels qu’on peut les connaître maintenant. C’est un texte de 1936 qui me semble fondamental.
Après il y a d’autres dates.

Frédéric Couchet : Oui, il y a plein d’autres dates. C’était pour vous demander quelques dates. Je crois que les premiers enseignements universitaires c’est aussi dans les années 1970, il y a une cinquantaine d’années en gros. C’était pour avoir quelques dates et après on renvoie les personnes aux pages Wikipédia et aux références qu’on mettra sur le site de l’April. C’est important de noter que finalement l’informatique n’est pas quelque chose de récent, c’est quelque chose qui existe depuis très longtemps.
On va aborder un troisième sujet qui est notamment le cœur du travail de Sylvie Boldo, c’est la confiance dans l’ordinateur. En fait, les deux choses qu’on voit souvent chez les gens c’est soit ils pensent que l’ordinateur est absolument parfait et ne peut jamais faire d’erreurs. Et deuxième chose qu’on voit souvent, notamment avec l’informatique propriétaire, c’est que quand il y a quand même des erreurs ou des bugs, c’est forcément de la faute de la personne et pas de l’ordinateur, l’ordinateur étant parfait. Tout à l’heure Fabien Tarissan a aussi parlé, je crois, de vérification ou de méthode formelle, je ne sais plus, qui fait partie de la confiance.
Sylvie Boldo, je vous propose de commencer là-dessus puisque c’est justement votre cœur de recherche, sur la confiance dans l’ordinateur : est-ce que l’ordinateur est un outil magique et parfait ? Est-ce qu’il a des limites ?

Sylvie Boldo : Quelque part, pour l’utilisateur, c’est quand même un outil un peu magique parce que ça permet d’accéder très rapidement, très vite, à des informations qui sont éloignées. Quelque part les gens ont effectivement perçu le téléphone ou l’ordinateur comme des outils magiques. Le problème c’est qu’en fait un ordinateur c’est très bête, ça fait ce qu’on lui demande et surtout, ça fait ce qu’on lui demande et pas ce qu’on veut. Effectivement on interagit avec l’ordinateur, qui est une machine, par le biais de programmes — Fabien a évoqué tout à l’heure les systèmes d’exploitation —, donc quelque part il y a des humains qui ont programmé des programmes qui nous permettent d’interagir avec la machine, qui est un truc très bête qui sait faire des additions, des multiplications, etc., mais qui n’a aucune idée de ce qu’il est en train de faire. Donc de temps en temps ça ne marche pas comme on veut. Effectivement, souvent c’est la faute de l’ordinateur. La solution c’est soit de râler sur l’ordinateur, ce qui ne marche pas, soit de rebooter, ce qui marche parfois, soit d’autres choses. Dans un contexte personnel ce n’est pas forcément très grave, mais l’informatique est aussi dans les avions, dans les hôpitaux, etc., donc il peut y avoir des cas où on a besoin d’un peu plus de sûreté et de confiance. Il y a un pan de l’informatique qu’on appelle méthode formelle qui a pour but d’amener de la confiance pour effectivement être sûrs qu’un certain nombre de programmes ou d’algorithmes sont corrects et ne vont pas planter au milieu.

Frédéric Couchet : Le but de ces méthodes formelles sur lesquelles vous travaillez c’est prouver de façon, quelque part, mathématique que l’ordinateur, que le langage ou que le programme qui a été écrit par un être humain fait vraiment ce pourquoi il était prévu et pas autre chose.

Sylvie Boldo : Absolument. C’est ça. Une des difficultés c’est de décrire ce que le programme est censé faire. Il ne faut pas imaginer juste un petit bout de programme de dix lignes écrit par une personne, il faut imaginer des systèmes qui sont écrits par 50, 100 personnes, qui doivent interagir entre eux. Le fait qu’une fonction écrite par quelqu’un va bien être ce que l’autre attend, ce n’est pas complètement évident non plus. Il y a des techniques de génie logiciel pour ce genre de choses, mais disons que globalement c’est quand même une question très compliquée. On commence à savoir faire des choses, il y a pas mal de recherche là-dessus, mais effectivement c’est encore du domaine de la recherche.

Frédéric Couchet : D’accord. Est-ce qu’il y a beaucoup de code qui est étudié de cette façon-là, notamment du code qui est en production, c’est-à-dire utilisé au quotidien ? C’est-à-dire est-ce que par exemple le code qui est embarqué dans les avions subit des tests via des méthodes formelles ?

Sylvie Boldo : Les programmes dans les avions sont soumis à des normes extrêmement difficiles. Ils doivent être testés de façon très intensive et ils sont au moins partiellement prouvés avec diverses méthodes formelles. Il y a un niveau d’exigence sur les codes des avions qui est très important, beaucoup plus que sur les logiciels que vous utilisez couramment. On fait quand même beaucoup d’efforts pour ces systèmes critiques. Effectivement, ce qu’on aimerait bien, c’est que ce soit beaucoup plus automatique, notamment les démonstrations, c’est un des sujets sur lesquels les gens travaillent. Il y a effectivement des niveaux d’exigence pour certains programmes qui sont très élevés.

Frédéric Couchet : Ça fait combien d’années que des gens travaillent sur ce champ-là de cette preuve formelle ?

Sylvie Boldo : Sur les méthodes formelles, ça fait au moins trente ans. Les premières choses c’était l’informatique théorique, le lambda-calcul, ce sont les années 70/80. Quelque part, le fait de pouvoir décrire un algorithme et un programme de façon formelle c’est quelque chose qui n’est pas nouveau. Ce qui est plus récent c’est effectivement réussir à appliquer ça sur des programmes de la vraie vie, ça on le fait au moins partiellement.

Frédéric Couchet : D’accord. Fabien Tarissan, sur ce sujet de la confiance dans l’ordinateur, est-ce que vous voulez compléter sur les méthodes formelles ou sur un autre domaine ?

Fabien Tarissan : Non, la description est très claire. Par contre j’insisterais bien sur l’importance de cette nécessité de s’assurer de la sécurité des programmes qui sont écrits. On vient de voir avec les méthodes formelles des techniques extrêmement pointues qui sont justement ce sur quoi travaille Sylvie au quotidien dans ses recherches. On peut aussi aller regarder à l’autre bout de la chaîne, notamment quand on enseigne la programmation aux plus jeunes ou d’ailleurs aux moins jeunes. On n’enseigne pas simplement le fait d’être capable d’écrire des programmes c’est-à-dire de bien connaître les mots clefs du langage et comment ils s’organisent, mais on enseigne aussi la bonne pratique. La bonne pratique de la programmation elle vise quoi ? Justement à s’assurer qu’il y ait le moins d’erreurs possibles lorsqu’on écrit un programme. En fait, même si l’algorithme est clair dans notre tête, on ne se lance pas bille en tête dans l’écriture d’un programme, on passe par des phases dans lesquelles on évalue ce que va être ce qu’on appelle la spécification d’un programme, donc qu’est-ce qu’il va prendre en entrée, quel type de données il va prendre en entrée, quel type de données il va renvoyer en sortie dans son calcul, quelles sont les contraintes ou les hypothèses qui sont portées sur ces données. On essaye d’évaluer des batteries de tests sur lesquels on va ensuite tester son programme. Il y a toute une dynamique, un processus qui participe d’une bonne pratique d’écriture des programmes et qui est en lien avec cette nécessité de s’assurer que les programmes sont corrects.

Frédéric Couchet : D’accord. On va revenir sur ce sujet et on abordera aussi celui de l’enseignement. D’abord on va faire une petite pause musicale qui va être relativement courte. Aujourd’hui ce ne sont que des pauses musicales relativement courtes, encore une fois choisie par notre programmeur musical Éric Fraudain.
Nous allons écouter Welcome back par Cloudkicker. On se retrouve juste après. On vous souhaite une belle journée à l’écoute de Cause Commune, la voix des possibles.

Voix off : Cause Commune 93.1

Pause musicale : Welcome back par Cloudkicker.

Frédéric Couchet : Nous venons d’écouter Welcome back par Cloudkicker, disponible sous licence libre Creative Commons Attribution. Vous retrouverez les références sur le site de l’April, april.org, et sur le site de la radio causecommune.fm.
Vous écoutez toujours l’émission Libre à vous ! sur radio Commune, la voix des possibles, 93.1 et en DAB+ et Île-de-France et partout dans le monde sur le site causecommune.fm.

Avant de poursuivre avec notre sujet, je vais répondre à la première question du quiz pour être sûr de ne pas oublier. Je vous indiquais que dans l’émission de la semaine dernière il y avait eu la première chronique d’une association qui agit notamment pour l’appropriation de l’informatique par toutes et tous et dont les locaux sont situés à côté du studio de la radio dans le 18e, je vous demandais le nom de cette association. L’association s’appelle Antanak, antanak.com. Isabelle qui est intervenue la semaine dernière m’a dit que suite à sa chronique quatre personnes ont contacté l’association pour installer un système d’exploitation libre sur leur ordinateur. Donc n’hésitez pas à contacter antanak, avec un « k », point com. C’est juste à côté du local de la radio, vous pourrez en plus passer voir la radio si vous passez dans le quartier.

On va poursuivre avec notre sujet principal qui porte sur le thème « c’est quoi l’informatique ? » avec nos invités : Sylvie Boldo, directeur de recherche à l’Inria et Fabien Tarissan chargé de recherche en informatique au CNRS.
Juste avant la pause musicale on parlait de confiance dans l’ordinateur et aussi de l’importance de la qualité d’écriture du code. Je crois que c’est Fabien Tarissan qui parlait de ça juste avant.
Avant d’aborder l’importance de l’enseignement de l’informatique, est-ce que sur cette notion d’importance de la qualité de l’écriture du code vous voulez ajouter quelque chose ? Une question un peu provocatrice : est-ce que la majorité du code, notamment dans certains logiciels, est mal écrite en fait tout simplement, pour des raisons peut-être d’urgence parce que l’entreprise ou la structure dans laquelle on travaille est sous pression ou autre ? Quelle est la qualité générale du code écrit aujourd’hui en informatique ? Fabien, Sylvie, est-ce que vous êtes encore avec nous ?

Fabien Tarissan : Je n’ai pas une grande idée. Je me dis que la qualité dépend des contraintes, dépend de la norme que l’on pose sur ce qu’est un bon programme. Si on prend les normes telles que celles évoquées par Sylvie dans l’aviation je pense qu’il y a très peu de codes qui sont bien écrits. Il y a aussi beaucoup de codes qui sont partiellement bien écrits mais cela est suffisant pour les besoins de ce qu’ils font. Moi j’écris souvent des programmes que je suis le seul à utiliser pour des petits calculs ; s’ils ne sont pas parfaits, ce n’est pas très grave tant que le résultat est juste. Je ne sais pas très bien comment répondre à cette question, je n’ai pas une idée précise de la qualité sur l’ensemble des programmes. J’ai idée qu’ils ne sont pas tous très bien écrits quand même !

Sylvie Boldo : Je pense aussi que c’est un problème compliqué de bien écrire un programme. C’est un problème connu. Je pense aussi qu’au moment où ils sont écrits ils sont probablement bien écrits, mais après les programmes changent, ils évoluent, et on leur demande souvent de faire plus que ce qu’ils faisaient au début. Quelquefois il faudrait tout réécrire et on n’a pas forcément le temps. Je pense que c’est surtout pour ça qu’on a de la mauvaise qualité à la fin.

Frédéric Couchet : D’accord. On avait fait une émission sur l’agilité et notamment la personne qui intervenait, Alexis Monville, parlait, je cite ça de mémoire, des cycles en V versus les cycles agiles. Donc cycle en V où pendant des mois des gens écrivent du code et ensuite livrent le truc et ça ne correspond pas vraiment à ce que voulait la personne, versus cycle agile où il y a des itérations courtes, par exemple à la semaine, qui permettent d’adapter l’écriture du code en fonction du retour des personnes utilisatrices. Est-ce que c’est un petit peu ça ou je suis complètement hors sujet ?

Sylvie Boldo : Non, ce n’est pas hors-sujet, c’est juste que quelque part ça dépend du projet. Des fois il faut sortir un seul truc à une certaine date, dans ce cas-là, effectivement, c’est plutôt un cycle en V. Des fois on fait un cycle en V et, en fait, on se rend compte que ce n’était pas de ça qu'on avait besoin, donc il faut soit refaire un V, soit refaire du agile et, quelque part, étant donné certaines contraintes on a faits des choix et des fois les contraintes changent, ça fait que le programme qu’on a à la fin est un petit peu bancal. Ce n’est pas forcément la faute des programmeurs du début.

Frédéric Couchet : D’accord. Donc ne tapez pas toujours sur les programmeurs et les programmeuses quand quelque chose ne fonctionne pas ! On va aussi rappeler que l’informatique est un domaine très large, ce n’est pas parce qu’on fait de l’informatique qu’on maîtrise toute l’informatique. C’est vraiment un domaine très large comme on a pu le voir. On peut être spécialiste et ne rien connaître d’un autre domaine de l’informatique. C’est « normal » entre guillemets.

Sylvie Boldo : C’est tout à fait normal, je ne connais rien en réseaux.

Fabien Tarissan : Je connais très peu de choses sur les bugs.

Frédéric Couchet : On a parlé tout à l’heure, évidemment, de l’importance de l’enseignement de l’informatique ou, en tout cas, nous on considère que c’est important. Justement, je voudrais vous demander, avant qu’on aborde comment se passe l’enseignement de l’informatique aujourd’hui en France, pourquoi est-ce si important que ça d‘enseigner l’informatique ? Finalement par rapport à ces quatre grands concepts qu’on a vus au début de l’émission, je les rappelle, information, algorithme, langage, machine, lesquels doit-on apprendre aux personnes ? Sous quelle forme ? Quels sont les liens ?
Première question pourquoi est-ce si important d’apprendre l’informatique à nos élèves ou même, peut-être, au grand public, je ne sais pas ? Fabien Tarissan on va commencer par vous parce que, je le rappelle, vous êtes, je crois, vice-président, médiation de la Société informatique de France. Je crois que vous travaillez beaucoup sur ce domaine-là.

Fabien Tarissan : La médiation, du coup, c’est plus sur la diffusion des connaissances et pas forcément directement sur l’enseignement, mais, bien sûr, c’est très fortement lié.
Pour reprendre quelque chose qui a été dit tout à l'heure par Sylvie, l’informatique est partout, la notion d’information est partout, le numérique, il me semble constater que ça amène à des fantasmes dans les deux sens. C’est-à-dire des fantasmes tout à fait déraisonnables sur la résolution espérée de problèmes profonds et, à l’inverse, des peurs tout à fait irraisonnées sur les développements technologiques et le fait que ça dépasse l’humanité.
En réalité, comme souvent dans l’évolution des sciences et des techniques, ce ne sont pas tant les innovations elles-mêmes mais l’exploitation des possibilités qu’elles offrent qui sont porteuses soit de dangers soit, au contraire, de bienfaits pour le plus grand nombre.
Ce qui importe au final c’est d’être capable de peser sur ces développements et de maîtriser leurs conséquences. Du coup, comment contrôler les conséquences d’une nouvelle science ou d’une nouvelle technologie si on ne comprend pas, au préalable, ce sur quoi elle se fonde. C’est pour ça que c’est important de comprendre ce qu’est l’informatique, ce que sont les algorithmes, ce qu’est la notion de sécurité des programmes, ce que sont les réseaux, pour ensuite, en citoyen et citoyenne éclairés, peser sur les choix qui nous sont offerts.
Voilà en tout cas comment je conçois l’importance pour tous d’ailleurs, pas simplement pour les élèves, vous l’avez dit, d’avoir un minimum de connaissances sur ce qu’est l’informatique.

Frédéric Couchet : Sylvie Boldo.

Sylvie Boldo : Je suis complètement d’accord. Je pense que c’est important que les citoyens soient éclairés sur l’informatique parce qu’ils l’utilisent tout le temps. C’est-à-dire qu’effectivement ils vont faire leur déclaration des revenus sur le site web des impôts, ils vont éventuellement donner des informations à Google, Facebook, Amazon et ils ne se rendent pas forcément compte des conséquences effectivement de donner ses données, d’utiliser des programmes, quelque part parce qu’on ne leur a pas expliqué, on ne leur a pas expliqué ce que Google pouvait faire avec leurs données, donc on ne peut pas espérer que les gens aient un avis éclairé si on ne leur explique pas. Ça, effectivement, c’est important pour moi et à tout âge. On commence par les jeunes parce qu’ils vont grandir mais, quelque part, ça mériterait d’être plus large.

Frédéric Couchet : Ça me fait penser à une question que m’avait envoyée Marie-Odile qui s’occupe des transcriptions chez nous en préparant l’émission, je retrouve la petite question : si on dit que l’informatique est partout, pourquoi est-elle si mal comprise par les responsables politiques ? Est-ce que c’est un problème justement de formation ? De génération quelque part peut-être ? Peut-être que les responsables politiques sont majoritairement d’une génération qui n’a peut-être pas appris l’informatique. Est-ce que vous partagez ce point de vue, peut-être que vous ne le partagez pas, sur le fait que l’informatique est mal comprise par les responsables politiques actuels ?

Fabien Tarissan : Si, je partage ce point de vue. Je pense que les décideurs publics, au sens large, pas que les hommes et les femmes politiques, je le vois aussi dans le domaine de la magistrature où les algorithmes arrivent aussi dans les tribunaux soit pour épauler les juges soit, au contraire, pour pour que ça devienne des sujets de droit — il faut trancher d’un point de vue juridique sur des questions qui touchent à l’informatique — et les gens sont mal préparés. Effectivement, la raison vient en partie du fait qu’ils sont d’une génération où il n’y a pas eu de formation à l’informatique, donc il n’a pas du tout de connaissances sur ce qu’est un algorithme ou sur ce qu’est l’informatique. Oui, je suis assez d’accord avec ce constat.

Frédéric Couchet : Et Sylvie Boldo, de votre côté ?

Sylvie Boldo : Oui, tout à fait. On ne les a pas formés on ne peut pas espérer qu’ils sachent !

Frédéric Couchet : Justement parlons donc de l’enseignement de l’informatique. On va parler des élèves dans un premier temps et, si on a le temps, on parlera peut-être après des adultes. À partir de quelle classe d’âge peut-on commencer à enseigner l’informatique et sous quelle forme ? Notamment est-ce que dès le départ on va parler de données, d’algorithme, de langage, de machine ? Comment on commence ? À quel âge ? Qu’est-ce qu’on fait en fonction des différentes classes d’âge ? Pour parler concrètement, est-ce qu’en maternelle on peut initier à l’informatique et est-ce qu’il faut initier à l’informatique dès la maternelle ?

Fabien Tarissan : Est-ce qu’il faut ?, je ne sais pas, mais est-ce qu’on peut ?, oui. J’en ai fait l’expérience, je suis déjà intervenu en maternelle. Du coup, il faut réfléchir à ce qu’est le programme au niveau scolaire auquel on essaye de participer. C’est très personnel ce que je dis là, ce n’est pas une réponse globale. En l’occurrence, quand j’étais intervenu en moyenne section, ils travaillaient la notion de déplacement et de positionnement dans l’espace. Il fallait que les élèves, dans l’année, arrivent à comprendre quand on leur dit « droite, gauche », quand on leur dit à « droite de l’arbre, à gauche de l’arbre, à l’entrée, etc. » On avait travaillé sur un petit problème de déplacer des personnages sur une grille, ça participait d’un conte qui était travaillé à ce moment-là. J’étais intervenu pour discuter avec les élèves de comment on pourrait expliquer à ce petit personnage qui doit se rendre à un endroit sur une carte comment se déplacer. Donc on avait discuté langage. On avait essayé ensemble de mettre au point des mots clefs qui permettraient à quelqu’un, les élèves, de décrire le déplacement que le personnage devait opérer sur une grille et ensuite on avait mis en œuvre ce langage qu’ils avaient donc proposé eux-mêmes, bien sûr on avait encadré ça. Ensuite ils écrivaient de tout petits programmes à base de flèches, à base de déplacements et c’étaient des algorithmes, c’était leurs premiers programmes. Bien sûr, on ne mettait pas ces mots-là dessus. On ne parle pas de programme, on ne parle pas de langage, on ne parle pas d’algorithme et de complexité, bien évidemment. Mais on fait le plus important c’est-à-dire qu’on travaille les concepts, on forge de l’intuition pour que plus tard, dans leur scolarité, lorsqu’ils tombent sur la notion d’algorithme, la notion de terminaison, la notion de programme, eh bien ça fasse écho à des choses qu’ils ont déjà travaillées plus jeunes.

Frédéric Couchet : Est-ce que ce que vous décrivez est un peu en rapport à ce qu’on faisait il y a longtemps, ça existe peut-être toujours, la tortue du langage Logo ?

Fabien Tarissan : Oui. Sauf que là on ne le faisait pas avec une machine. Le problème que je vois dans l’apprentissage avec exclusivement un ordinateur c’est que c’est un médium qui met une barrière entre les concepts dont on parlait tout à l’heure et leur apprentissage. Si on passe par l’ordinateur pour enseigner ces concepts, alors il faut alors au préalable appréhender l’outil, il faut être capable d’écrire sur un clavier, il faut être capable d’être agile avec ses doigts, il faut être capable de lire les messages d’erreur sur un ordinateur. Donc il y a tout un écart qui se fait entre les concepts-mêmes et l’apprentissage. Lorsqu’on évacue l’ordinateur, notamment auprès des plus jeunes, ça facilite beaucoup le fait de travailler les concepts. Nous on travaillait ça avec du papier, un crayon et des flèches. Sinon oui, ça correspond beaucoup à ce qu’on faisait avec la tortue Logo, bien sûr.

Frédéric Couchet : D’accord. Dans l’enseignement actuel français on peut commencer dès la maternelle, mais dans les programmes officiels on commence à partir de quand en fait ? À partir de quelle classe d’âge ?

Fabien Tarissan : L’informatique telle qu’on l’a décrite tout à l’heure, notamment l’enseignement des quatre concepts, on la retrouve très clairement en première. C’est là qu’il y a la spécialité informatique, une spécialité sur laquelle les élèves de première, donc dans le prolongement, en terminale peuvent passer le bac et c’est une spécialité au même titre que les mathématiques, la littérature, la philosophie, l’histoire-géo, etc. Là c’est vraiment l’enseignement comme on l’a dit tout à l’heure.
C’est aussi abordé avant dans les programmes, on retrouve de l’informatique, notamment l’algorithmique, dans les programmes de mathématiques, ce qui est très bien, simplement c’est de l’informatique pour les mathématiques. Évidemment, si ça apparaît dans les programmes de mathématiques, c’est parce que c’est une partie de l’informatique qui est très fortement corrélée au programme de mathématiques de l’année. Par exemple ça va être comment est-ce qu’on calcule le plus grand commun diviseur entre deux nombres. Bien sûr on travaille l’informatique, ça forge aussi l’intuition et les connaissances, mais ce n’est pas complètement collé à ce qu’on décrivait tout à l’heure.
Ensuite, il y a un aussi cours qui est très important, qui est apparu en 2019 en même temps que la spécialité « numérique et sciences informatiques » de première et de terminale, qui est le cours de seconde, qui s’appelle « sciences numériques et technologie », qui lui est un cours obligatoire d’une heure et demie par semaine pour tous les lycéens de seconde, qui est un enseignement qui touche à l’informatique et qui touche à la technologie. C’est un enseignement qui est pensé sous forme de thèmes. Il aborde différents thèmes : qu’est-ce que c’est qu’Internet ? Qu’est-ce que c’est que le Web ? Qu’est-ce que c’est que la photo numérique ? Je ne les ai pas tous en tête là comme ça [Internet - Le Web - Les réseaux sociaux - Les données structurées et leur traitement - Localisation, cartographie et mobilité - Informatique embarquée et objets connectés . La photographie numérique]. Donc c’est un apprentissage à la fois de la technologie qui est derrière, de la bonne pratique de ces objets-là et aussi de quelques rudiments d’informatique au sens scientifique.

Frédéric Couchet : D’accord. Donc ça commence dès la seconde, puis première, terminale.
Sylvie Boldo, sur cette partie enseignement, est-ce que vous voulez compléter avant que je pose une question sur la formation des enseignants ?

Sylvie Boldo : Je voulais dire que je n’ai pas testé la maternelle, je n’ai pas été si courageuse que ça, j’ai testé le primaire et, par contre, c’était plutôt de l’algorithmique, pas sur ordinateur non plus, mais avec des Duplo donc avec des objets physiques qu’il faut déplacer. Là les algorithmes c’est comment je me déplace d’un certain nombre de cases pour effectivement faire ce que je voulais. Ma pratique c’est que ça marche très bien. C’est-à-dire qu’effectivement les enfants se prennent vraiment au jeu de trouver un algorithme, je ne dis pas forcément le gros mot « algorithme », mais de résoudre le problème et de trouver une méthode systématique. Ça les entraîne vraiment à ce qu’on peut appeler plus tard la pensée algorithmique, c’est-à-dire effectivement comment je trouve une méthode systématique pour résoudre mon problème.

Frédéric Couchet : D’accord.
Par rapport à ces cours se pose la question de la formation des enseignants et des enseignantes. Historiquement, je crois que la plupart de ces cours étaient donnée notamment par des professeurs de mathématiques, etc. Depuis peu, si je ne me trompe pas, il y a un CAPES informatique. Est-ce que qu’aujourd’hui les enseignants sont eux-mêmes et elles-mêmes formés pour donner des cours d’informatique en tant que science ? Où est-ce qu’on en est de cette formation ? Fabien Tarissan.

Fabien Tarissan : En partie. En fait l’informatique a fait son introduction dans les programmes il y a à peu près une dizaine d’années avec la spécialité « Informatique et sciences du numérique », qui s’appelait ISN, qui a donc disparu depuis pour cette spécialité plus importante qui s’appelle « Numérique et sciences informatiques ».
En 2019, si je me souviens bien, 30 000 élèves avaient choisi la spécialité informatique en première, c’est quand même conséquent. Ça demande à peu près, je dis un petit peu à la louche mais c’est l’ordre de grandeur, 2500/2800 professeurs pour faire ça. Effectivement la question se pose de qui va enseigner, qui peut être formé pour ça ? Il y a eu plusieurs courants de formation. Comme vous l’avez dit, des enseignants qui sont, en fait, des enseignants d’une autre discipline, qui se sont formés, qui ont fait de la formation continue pour, entre guillemets, « se mettre à niveau », pour avoir l’ensemble des connaissances du programme pour enseigner ça. Il faut se rendre que la spécialité c’est quatre heures par semaine en première, six heures par semaine en terminale. C’est quand même très conséquent en termes de connaissances à avoir et de recul à avoir pour le professeur pour qu’il soit à l’aise dans le fait de dispenser ces connaissances-là. Aujourd’hui, entre cette formation ISN qui avait eu lieu il a dix ans et la formation très récente à travers un diplôme inter-universitaire pour préparer les enseignants, on en est aujourd’hui à travers ces formations, ces différentes habilitations qui ont formé des enseignants d’une autre discipline, autour je crois de 1500. Je dis à peu près, il faudrait vérifier, j’aurais dû vérifier pour être plus précis.

Frédéric Couchet : Ce n’est pas grave, on mettra les bons chiffres.

Fabien Tarissan : C’est à peu près ça. Il manque quand même, au bas mot, 1000 professeurs pour ouvrir partout où on voudrait ouvrir ces classes-là pour répondre à la demande.
Il y a effectivement un CAPES, le CAPES il est très bien, c’est une formation longue, ce sont des gens qui sont en licence, qui ont suivi une formation universitaire en informatique et qui passent le concours du CAPES pour être professeur qui est la voie habituelle, en fait, pour enseigner une discipline au lycée et au collège, le CAPES c’est 30 places par an, donc on ne va pas aller très vite à ce rythme-là !

Frédéric Couchet : Trente places !

Fabien Tarissan : C’était 30 places cette année. Il a ouvert l’année dernière, donc là on a la toute première promotion de capétiens et de capétiennes ; 30 places dans le public et dix places dans le privé. C’est très peu pour répondre à la forte demande, au fort besoin d’enseignants. Donc oui, il va falloir muscler un petit peu notre corps enseignant. Il va falloir aussi regarder comment va s’opérer l’articulation entre les nouveaux formés, les capétiens et les capétiennes, et ceux qui ont fait un effort considérable dans une formation ad hoc, à travers les habilitations que j’évoquais avant. Il faut voir que ce sont des professeurs qui se sont formés en continu pendant qu’ils enseignaient leur matière. Ils avaient leur service dans la semaine, ils enseignaient et ils ont pris des semaines de vacances pour se former huit heures par jour pendant cinq semaines pour être prêts à enseigner cet enseignement à la rentrée. Donc il va falloir articuler ces deux corps-là et notamment pas que les nouveaux arrivants remplacent simplement tous ces gens-là qui ont fait un effort considérable pour démarrer ces enseignements de spécialité.

Frédéric Couchet : D’ailleurs sur ce sujet-là, si je me souviens bien, l’association EPI, Enseignement public et informatique, a publié récemment un communiqué de presse qui s’inquiétait justement de cette situation que vous évoquez.

Fabien Tarissan : Effectivement, c’est l’EPI qui a alerté sur cette question et, du coup, on essaye de voir exactement ce qui s’est passé, comment les décisions se prennent. Il faut juste porter une attention sur la manière dont vont s’opérer les affectations dans les lycées. Il serait inacceptable que tous ces gens qui ont fait énormément d’efforts pour se former et pour enseigner se voient du jour au lendemain sans enseignement d’informatique simplement parce que maintenant il y a quelques capétiens qui arrivent. Il y a de place pour tout le monde, il y a une forte demande, il y a un fort besoin, il faut juste qu’on arrive à prendre les bonnes décisions en termes d’affectation, en termes de répartition des classes.

Frédéric Couchet : Je ne vais pas vous demander si le ministre actuel peut prendre ce gendre de décision… Je fais mon commentaire tout seul !
Le temps avance. Je regarde l’heure parce que j’aurais aimé qu’on aborde un dernier sujet, celui des réseaux, sur lequel notamment vous travaillez Fabien. Sylvie, est-ce que vous voulez compléter ou ajouter quelque chose sur cette partie enseignement de l’informatique soit pour nos élèves, soit pour les adultes ?

Sylvie Boldo : Ce qu’a dit Fabien était très complet. Je voulais juste souligner le travail très important des professeurs qui se sont formés à l’informatique parce qu’ils ont vraiment travaillé très dur.

Frédéric Couchet : Oui, tout à fait. Pour en connaître quelques-uns, ils ont travaillé à côté sur leurs heures, ils se sont formés souvent, en plus, en utilisant des logiciels libres et des ressources libres. Donc ça c’est vraiment important.
On va aborder un dernier sujet, il nous reste quelques minutes, même pas une dizaine de minutes, un sujet qui est important sur lequel on reviendra sans doute aussi dans le cadre d’une autre émission.
Quand on discute avec des ados, il y a une chose qui revient assez souvent c’est que ces personnes n’ont souvent pas compris la différence entre un navigateur et un moteur de recherche. Je ne vais pas donner le nom du moteur de recherche, en l’occurrence si, c’est souvent Google, mais il y a souvent une confusion entre les deux, c’est-à-dire que pour eux le navigateur qu’ils utilisent, en fait, c’est uniquement un moteur de recherche. Donc il y a une mécompréhension du fonctionnement d’Internet, du Web, encore plus sans doute des algorithmes derrière les réseaux sociaux que les personnes utilisent. Ça c’est une de vos thématiques, Fabien Tarissan, de recherche et de travail, d’ailleurs je rappelle que vous avez écrit un ouvrage qui s’appelle Au cœur des réseaux. Des sciences aux citoyens, aux Éditions Le Pommier en 2019. J’aimerais que vous nous parliez un petit peu de l’importance de comprendre comment fonctionne Internet, le Web, pour comprendre le monde qui nous entoure aujourd’hui, qu’on utilise au quotidien.

Fabien Tarissan : Ce monde en ligne, oui tout à fait. Vous parlez de confusion entre navigateur et moteur de recherche, il y a des confusions encore plus profondes, la confusion entre Internet et le Web est très courante. Quand on dit qu’on va surfer sur Internet alors qu’en fait on va surfer sur le Web pour récupérer des informations, ce sont des confusions. Par exemple Internet et le Web sont deux objets, sont deux réseaux mais deux réseaux extrêmement différents. D’ailleurs l’année dernière, en 2019, on a célébré les 50 ans de la naissance d’Internet et, la même année, on a fêté les 30 ans de la naissance du Web. Ce n’est pas simplement que ce sont deux objets différents, c’est qu’ils ont 20 ans d’écart au moment de leur création. 20 ans, à l’échelle de l‘informatique moderne, c’est quand même beaucoup.
Il y a deux choses à dire. D’abord ça ne me choque pas tant que ça qu’on confonde Internet et le Web et qu’on prenne l’un pour l’autre. Par contre, quand on commence à réfléchir sur les enjeux qui sont derrière ces objets, derrière ces deux réseaux, alors là ça devient important de les distinguer. Par exemple, on a beaucoup parlé ces dernières années de la neutralité du Net qui était un acquis, enfin un consensus de la communauté pour faire fonctionner le réseau internet, et qui commence à être détricoté aux États-Unis notamment. Donc là, si on veut comprendre ce qui passe, il faut comprendre ce qu’est Internet. Le Web n’a aucun lien avec la question de la neutralité du Net. La neutralité du Net c’est savoir si on a le droit, en tant qu’opérateur de télécommunications, de traiter les flux d’informations qui arrivent à un point du réseau de façon différente que neutre. Jusqu’à présent non, le réseau devait être neutre, donc il devait traiter tous les flux de la même manière et maintenant on commence à donner le droit à ces opérateurs de le faire de façon différente.
À l’autre extrême, si je prends un autre exemple dont on parle beaucoup en ce moment que sont les fake news, là c’est l’inverse. L’Internet n’a rien à dire sur les fake news, ce qui est important c’est le Web qui permet de comprendre comment ces fausses informations se créent, comment est-ce qu’elles sont relayées sur les réseaux, pourquoi est-ce qu’elles acquièrent une telle notoriété en général extrêmement vite, pourquoi est-ce qu’elles touchent autant d’utilisateurs du Web, pour essayer de comprendre comment s’en prémunir d’une certaine façon.
Donc oui, je crois qu’il y a un travail à faire pour bien comprendre ce qui se joue derrière ces objets, pour comprendre aussi ce qui se joue derrière les algorithmes qui opèrent sur ces réseaux. Vous avez cité les moteurs de recherche qui ont effectivement un rôle. Un rôle, il faut le souligner, qui est nécessaire. En moyenne, quand quelqu’un tape des mots clefs sur un moteur de recherche quel qu’il soit, il y a plusieurs centaines de milliers de pages web qui correspondent à cette requête. Il est évident qu’on ne peut pas laisser l’utilisateur en face de 200 000 pages web livrées en vrac en lui disant « voilà, il y a ces 200 000 pages qui devraient t’intéresser ». Évidemment il faut classer l’information, évidemment il faut organiser l’information, il faut le faire de manière automatique et c’est ça le travail d’un moteur de recherche. Mais, en même temps, du coup, les moteurs de recherche ont un impact extrêmement fort sur l’information qui est rendue visible. On ne voit, en réalité, qu’une infime fraction des pages web qui existent, des posts qui existent sur les réseaux sociaux, etc. Donc se pose la question de quel impact ça a sur notre manière de raisonner ensuite, sur les décisions qu’on prend hors-ligne, par exemple sur notre manière de voter.
C’est d’ailleurs pour ça que j’ai écrit l’année dernière ce livre, pour essayer de démystifier un petit peu le fonctionnement à la fois des réseaux, en même temps des algorithmes qui opèrent sur ces réseaux, essayer de faire comprendre aussi l’économie qui se joue derrière puisque la plupart des services qu’on utilise se présentent comme gratuits aux utilisateurs. Or, on le sait bien, il y a une énorme économie derrière. Donc il faut comprendre comment se joue cette économie, d’où vient la valeur ajoutée qui crée l’économie pour les sociétés qui sont derrière. Tout ça, encore une fois, pour choisir de façon éclairée quel service on va utiliser, comment on va l’utiliser et comment on va paramétrer tout ça.

Frédéric Couchet : Tout à l’heure on parlait de la formation des élèves. Est-ce que dans les spécialisations, les cours de spécialité informatique, est-ce que ces thèmes sont abordés ou pas du tout ?

Fabien Tarissan : Dans la spécialité première et terminale, on le trouve un petit peu à la marge, disons que c’est saupoudré. Mais c’est avant tout un enseignement scientifique au sens, je dirais, science dure, donc c’est moins fait. Par contre, c’est plutôt dans le programme de seconde que c’est fait où là, à chaque fois qu’il y a un thème qui touche à ces objets-là, il y a des connaissances sur qu’est-ce que ça veut d’utiliser ces services ? Comment on se paramètre ? Qu’est-ce que ça veut dire données publiques, privées, ce genre de choses ?

Frédéric Couchet : Sylvie Boldo sur cette thématique donc Internet, le Web, les algorithmes ?

Sylvie Boldo : Juste une anecdote parce que ce n’est pas mon domaine de recherche. Si vous allez sur un navigateur web vous avez en haut une barre sur laquelle vous pouvez mettre l’adresse et, en fait, il y a un truc qui a changé au cours de ma vie : avant je ne pouvais mettre que des adresses, maintenant je peux mettre des mots clefs et ça va me faire la recherche qui correspond. Ça, ça veut quand même dire que les moteurs de recherche ont une puissance très importante puisque, effectivement, les gens ne vont plus garder en marque-page des sites web, ils vont juste se rappeler des mots clefs et passer toujours par le moteur de recherche.

Frédéric Couchet : En plus, le moteur de recherche, notamment Google, vise visiblement, quelque part, à faire disparaître les URL.

Sylvie Boldo : Absolument.

Frédéric Couchet : C’est une volonté. Je suppose que les autres moteurs de recherche, peut-être pas tous, sont sur cette même logique-là. Effectivement on l’a remarqué.
Il ne nous reste que quelques minutes. J’aurais envie de vous demander à tous les deux, en deux minutes, si vous avez un message important à faire passer par rapport à cette thématique de l’informatique ou des annonces peut-être de projets en cours ou des annonces d’évènements. En deux minutes, le message important ou les messages importants à retenir par rapport à cette thématique de l’informatique. Ce n’est qu’une première émission, notamment sur la partie algorithme, on reviendra plus en détail sans doute dans d’autres émissions. Qu’est-ce que vous auriez envie de dire en chose importante ? On va commencer par Fabien Tarissan.

Fabien Tarissan : Là à chaud, en faisant référence à ce qui vient d’être dit ? On a évoqué le fait d’avoir besoin de l’éducation, de l’enseignement, d’éduquer les citoyens pour être éclairés sur ces questions. On vient de parler de bonnes pratiques, c’est-à-dire d’être acteurs sur les services qu’on utilise, le navigateur – certains navigateurs peuvent être respectueux de votre vie privée –, les moteurs de recherche – certains peuvent l’être également, etc. –, il me semble qu’il y a une troisième dimension sur laquelle il faut être capable de peser et qu’il faut bien avoir en tête, c’est légiférer. Il faut absolument encadrer par la loi ce que l’on peut et ne peut pas faire dans le domaine de l’informatique, dans le domaine de l’exploitation des données. Ça c’est un petit peu fait avec le règlement européen dont on a beaucoup parlé ces dernières années, le Règlement général pour la protection des données et puis les transpositions dans la législation française, mais il parle exclusivement des données, de l’information. Il faut le faire aussi au niveau algorithmique. Qu’est-ce qu’on a le droit de faire en termes de traitement automatisé dans tout un tas de questions qui sont extrêmement importantes ? Je reprends un exemple que je connais un petit peu qui est celui de la justice. En ce moment on se pose la question sur à quel point on peut épauler les magistrats, les avocats, d’outils de recommandation qui vont les aider à travailler leurs affaires. Et ça on le retrouve partout. On le retrouve aussi dans le domaine médical, on le retrouve dans différents pans d’enjeux sociétaux. Et là c’est important aussi d’être capable de dire très précisément ce qu’on a le droit ou pas le droit de faire dans ces domaines-là.

Frédéric Couchet : Tout à fait. Donc il faut une révision de la dernière loi dite numérique qui est la loi, de mémoire, de 2016, la loi pour une République numérique où il y a déjà quelques petits encadrements, mais sans doute largement insuffisants.

Fabien Tarissan : Tout à fait. Il y en même des plus récentes. En décembre dernier, en décembre 2019, il y a eu une loi qui encadre ce qu’on a le doit de faire en termes de publicité politique dans les contextes de campagnes électorales. On n’a pas le droit de diffuser de façon opaque des messages à caractère en fait publicitaire d’un point de vue politique. C’est maintenant encadré par la loi depuis moins d’un an. Il y a continuellement des évolutions, mais il faut aussi être capable d’avoir ça en tête, de bien encadrer par la loi.
Pour moi il y a trois leviers sur lesquels il faut être éclairés : il faut avoir une bonne pratique de l’informatique, il faut être éduqué, donc il faut passer par un enseignement et il faut légiférer. C’est ça le message que je voulais faire passer en cette fin.

Frédéric Couchet : D’accord. Merci Fabien Tarissan. Et de votre côté, Sylvie Boldo, un message de conclusion.

Sylvie Boldo : Je vais m’associer au message précédent, notamment sur l’enseignement, et je vais ajouter un autre message qui est peut-être plutôt à destination des femmes et des jeunes filles : l’informatique ça peut aussi être pour vous. Effectivement ce n’est pas réservé à des jeunes hommes dans un garage. C’est vraiment un métier intéressant avec toute une palette de métiers différents qui vont de la programmation à la recherche. Ce sont des travaux qui peuvent se faire tout seul mais aussi en groupe dans des groupes qui peuvent être très agréables, donc il n’y a aucune raison de ne pas essayer. Peut-être que ça vous plaira, peut-être que ça ne vous plaira pas, mais essayez l’informatique, ça a de forts débouchés et ça peut vous plaire !

Frédéric Couchet : Je ne peux qu’appuyer et souscrire à ce message. Je vais d’ailleurs rappeler que la semaine dernière on a rediffusé un sujet sur les femmes et l’informatique avec Catherine Dufour, Katia Aresti et Caroline Corbal. Que nous avons en préparation, que nous allons enregistrer ce mois-ci un sujet sur l’initiation à la programmation pour les femmes avec Ada Tech School, Django Girls et la troisième c’est Ladies of Code Paris ; malgré les noms ça parlera français, donc avec trois intervenantes. Que dans les podcasts vous pouvez aussi écouter, je ne sais pas à quelle date c’était, mais vous retrouverez sur causecommune.fm, l’émission sur l’initiation sur la programmation en général et dans les invités il y avait, à l’époque elle était encore lycéenne, Ludine Pierquin qui expliquait comment elle avait découvert l’informatique à travers les Coding Goûters, notamment avec le langage Scratch. Elle avait découvert et elle avait trouvé ça génial et, comme vous le dites, elle disait « les filles vous pouvez y aller, c’est aussi fait pour vous ». L’émission sur l’initiation à la programmation pour les femmes sera sans doute diffusée courant octobre, on devrait l’enregistrer d’ici quelques jours.

Je vous remercie pour cette première émission, on va dire introductive puisqu’il y avait plein de sujets sur lesquels on pourrait revenir et sur lesquels on va revenir, je pense évidemment notamment à la question des algorithmes, Internet, le Web. En tout cas c’était un grand plaisir de vous avoir malgré les conditions. J’espère que la prochaine fois on pourra voir avoir en direct pour une autre émission.
Nous étions avec Syvie Boldo et Fabian Tarissan. Je vous remercie et je vous souhaite de passer une belle fin de journée.

Fabien Tarissan : Merci à vous.

Sylvie Boldo : Merci beaucoup.

Frédéric Couchet : Nous allons faire une pause musicale.

[Virgule musicale]

Frédéric Couchet : Nous allons écouter AR Lp 36 par Cloudkicker. On se retrouve juste après. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Voix off : Caus Commune 93.1.

Pause musicale : AR Lp 36 par Cloudkicker.

Frédéric Couchet : Nous venons d’écouter, nous sommes en train d’écouter la fin de AR Lp 36 par Cloudkicker, disponible sous licence libre Creative Commons Attribution. Vous retrouverez les références sur le site de l’April, april.org, et sur le site de la radio causecommune.fm.

Vous écoutez toujours l’émission Libre à vous ! sur radio Cause Commune, la voix des possibles, 93.1 FM et en DAB+ en Île-de-France et partout dans le monde sur le site causecommune.fm.
Nous allons passer au sujet suivant.

[Virgule musicale]

Chronique « Partager est bon » de Véronique Bonnet, professeure de philosophie et présidente de l'April : présentation et commentaire du texte de Richard Stallman « Mettre en application les critères du logiciel libre »

Frédéric Couchet : Nous allons poursuivre avec la chronique de Véronique Bonnet, professeure de philosophie et présidente de l’April. La chronique de Véronique s’intitule « Partager est bon ». Le thème du jour : présentation et commentaire du texte de Richard Stallman intitulé « Mettre en application les critères du logiciel libre ».
Véronique je te passe la parole.

Véronique Bonnet : Précisément, Fred, quand on regarde le titre et quand on regarde aussi les intertitres de cet article que Richard Stallman a écrit en 2015, on a l’impression qu’il est réservé aux informaticiens, qu’ils soient déjà libristes ou en voie de le devenir, parce que le texte parle de paquets logiciels, de séquences de code, de compilateurs, de distros GNU/Linux, ça veut dire distributions, de périphériques, de pages Web, de greffons et de blobs. Mais lorsqu’on lit le texte de A jusqu’à Z, on voit bien qu’il ne s’adresse pas seulement à quelques initiés, bien au contraire, puisque tout le travail de la FSF [Free Software Foundation] et j’ajouterais, sous ton contrôle Fred, le but du travail de l’April, c’est de donner à ceux qui ne s’y connaissent pas les moyens de se renseigner, par exemple sur quelles page aller pour savoir si un outil informatique est respectueux des libertés ou pas, ou encore quel programme libre utiliser à la place d’un programme non libre. Comme des logiciels nouveaux apparaissent, le mouvement du logiciel libre a besoin d’être réactif, d’être rigoureux, précis, pour examiner si un programme valide ou non les quatre libertés qui respectent la personne humaine. Je dirais que c’est cette préoccupation qui gouverne tout le texte qui n’est technique que dans le but de chercher une éthique.

Ces libertés je les rappelle, les quatre libertés, d’ailleurs Richard Stallman, dans cet article, commence par les évoquer :

  • la liberté 0 c’est la liberté d’exécuter un programme ;
  • la liberté 1, celle d’étudier le code et de le copier ;
  • la liberté 2, liberté de le modifier, éventuellement pour l’améliorer ;
  • liberté 3, distribuer des copies modifiées ou non modifiées de ce programme.

Au tout début de son travail Richard Stallman rappelle qu’une séquence de code qui ne permettrait pas ces quatre opérations serait injuste. Elle pourrait faire du mal à l’utilisateur, minorer son autonomie, ce qui est une atteinte. Or, il se trouve que certains estiment qu’on peut faire passer au second plan cette injustice si l’on raisonne simplement en termes de recherche d’efficacité, en termes de recherche de solutions.
La philosophie GNU a toujours fait de l’éthique et de la recherche de justice ce qui importait le plus. Le logiciel non libre ne s’embarrasse pas de cette question. Pour lui, seule la technicité compte et la recherche de résultat efface toute autre considération.
Le projet GNU, par ses propositions, est attentif à la liberté du code, porteuse de justice, et il prépare aussi à une autre liberté qui est liée à la liberté du code qui est la liberté de l’existence de manière plus générale dans des rapports sociaux qui sont consentis, qui sont choisis.

En 1983, au moment où Richard Stallman lance son appel pour écrire du code, il se trouve que beaucoup de paquets logiciels sont non libres, notamment les compilateurs et les bibliothèques qui sont indispensables dans un système. Il se trouve que le premier système d’exploitation entièrement libre sera constitué par GNU, complété par le noyau Linux après sa libération, permettant le dispositif GNU/Linux.
Mais alors, que penser des systèmes mixtes ? Que penser des fameuses distributions ? Est-ce qu’une distribution peut être mixte, c’est-à-dire simultanément libre par certains aspects et non libres par d’autres ? Par exemple certains, dont Richard Stallman dit qu’ils ont fait le mauvais choix, sur une plateforme non libre peuvent utiliser des logiciels libres ; ceci peut rendre service à ses utilisateurs qui sont soit mal renseignés, soit qui ont fait un choix pour des raisons d’efficacité. Par contre, et là il se trouve que la FSF et l’April veillent à ces questions, on évitera, sur une plateforme libre, d’utiliser des greffons non libres, des paquets non libres. Pourquoi ? Parce que ce qu’on installe n’est pas du tout innocent, même si on l’installe en seconde intention et par exemple, si à partir d’un système d’exploitation libre certains greffons non libres sont utilisables, il est important qu’ils puissent être choisis ou pas. Toujours l’importance de cette libre décision qui est celle de l’utilisateur.

Il y a ensuite un paragraphe sur les périphériques, par exemple lorsque nous sommes amenés à acheter des imprimantes. Il se trouve que certains périphériques non libres ne peuvent pas fonctionner à partir d’une distribution libre. Et le plus souvent d’ailleurs, lorsqu’on achète un périphérique, il est très difficile de savoir s’il est libre, s’il pourra fonctionner sous une distribution GNU/Linux. C’est pourquoi la question de la certification de tous ces outils qui sont amenés à être utilisés — est-ce qu’il est certifié ou pas ?, est-ce que les quatre libertés sont respectées ? — doit être rendue accessible, doit être manifestée à celui qui veut agir en toute connaissance de cause.
C’est vrai que la question de la certification des ordinateurs est plus délicate. Il est important, en tout cas, que le programme de démarrage soit libre. Une certification est proposée par la FSF. Il se peut que la FSF, ce mouvement fondé par Richard Stallman, puisse déclarer, vérifier que tel ordinateur est effectivement libre et là il est demandé, bien sûr, que le vendeur de cet ordinateur puisse, s’il bénéficie de cette certification, soutenir le mouvement du logiciel libre qu’il appellera ainsi et pas open source. Il faut absolument, s’il y a cette reconnaissance par la FSF que tel ordinateur est libre, il est important que ce matériel vendu par telle ou telle marque puisse se référer à ces valeurs, à ces recherches d’autonomie dont l’outil est porteur.

Enfin, et ce sera le dernier volet dans ce propos de Richard Stallman, qu’en est-il des pages web ? Le plus souvent elles contiennent des dispositifs opaques, non libres, notamment un qui va faire l’objet d’un passage important de cet article, JavaScript. JavaScript, occasionnellement d’ailleurs logiciel espion, qui exécute à l’insu de l’utilisateur ce pourquoi il a été programmé sans nécessairement le dire. Dès lors faut-il mettre en lien, à partir d’une distribution libre, des pages qui contiennent JavaScript ? Beaucoup de pages qui fonctionnent avec JavaScript, non libre, peuvent, pour être ouvertes, faire appel à une alternative qui s’appelle LibreJS, donc JS pour JavaScript. Si telle alternative n’est pas envisageable on peut parfois désactiver JavaScript si on peut s’en passer. S’il est impossible de s’en passer, alors ces pages doivent être désactivées : ces pages sont à éviter, il faut les écarter de la distribution libre.

Il se trouve que la conclusion, comme très souvent, insiste sur le pragmatisme de la philosophie GNU, c’est-à-dire cet ensemble de principes qui est manifesté dès l’aventure du Libre par Richard Stallman et ceux qui travaillent avec lui. En effet, comme il y a un caractère très mouvant sur le marché de l’informatique des logiciels, comme beaucoup de logiciels nouveaux apparaissent, alors il est très important de certifier ou de ne pas certifier, en tout cas de renseigner l’utilisateur pour s’opposer avec inventivité aux offensives non libres. Donc la tâche est constamment d’expliquer, déchiffrer, rendre accessible.

La philosophie GNU n’est pas ésotérique, elle ne s’adresse pas à des initiés. Elle se veut, c’est le terme inverse, exotérique, c’est-à-dire tournée vers le dehors. Nul ne doit être privé de la teneur des enquêtes des libristes et certainement pas vous, chers auditeurs.

Frédéric Couchet : Merci Véronique. C’était la chronique de Véronique Bonnet, professeure de philosophie et présidente de l’April, qui commentait un texte de Richard Stallman intitulé « Mettre en application les critères du logiciel libre ». Vous retrouverez sur gnu.org, g, n, u, point org. La traduction en français est assurée par notre groupe de travail Trad-GNU que vous pouvez évidemment rejoindre. Il a pour but de présenter l’informatique libre et la philosophie GNU en français.
Merci Véronique, c’était un plaisir de faire cette chronique à nouveau au studio et on se retrouve bientôt pour enregistrer d’autres chroniques et peut-être en direct. Belle journée à toi.

Véronique Bonnet : Belle journée Fred.

Frédéric Couchet : On va faire finir par quelques annonces rapides.

[Virgule musicale]

Annonces

Frédéric Couchet : Un sondage a été mis en place pour étudier l’utilisation de la contribution à OpenStreetMap, la cartographie libre, dans les collectivités et administrations. N’hésitez pas à remplir ce sondage, vous trouverez la référence sur le site de l’April, april.org, et sur causecommune.fm.
La nouvelle version du logiciel libre PeerTube, logiciel d’hébergement de vidéos décentralisé grâce à la diffusion de pair en pair et soutenu par Framasoft, vient d’être publiée avec des outils de modération améliorés, une gestion des playlists, un plugin, donc un greffon pour les annotations, et bien d’autres fonctionnalités à découvrir sur le site joinpeertube.org, tout attaché.
Il y a la reprise des soirées de contribution au Libre à la FPH [Fondation Charles Léopold Mayer pour le Progrès de l'Homme] chaque jeudi à partir de 19 heures, rue Saint-Sabin dans le 11e arrondissement de Paris.
Ce week-end il y a une install-partie, donc une fête d’installation, où vous pouvez recevoir de l’aide pour installer un système d’exploitation libre par exemple, à L’Electrolab à Nanterre, de 14 heures à 18 heures.
Et jeudi soir, à distance, il y a une réunion du groupe de travail Sensibilisation de l’April. Le groupe de travail Sensibilisation produit des outils de sensibilisation et vous pouvez y participer à distance.
Tous ces évènements sont annoncés évidemment sur le site de l’Agenda du Libre, agendadulibre.org.

Notre émission se termine et c’était un grand plaisir de refaire une émission complètement en direct, c’est la première depuis la reprise.
Je remercie toutes les personnes qui ont participé à l’émission : Éric Fraudain, Sylvie Boldo, Fabien Tarissan, Véronique Bonnet.
Aux manettes de la régie aujourd’hui Étienne Gonnu.
Merci également à Sylvain Kuntzmann, Antoine, Olivier Humbert, bénévoles à l’April, Olivier Grieco directeur d’antenne de la radio, qui s’occupent de la post-production des podcasts.
Merci également à Quentin Gibeaux, bénévole à l’April, qui découpe le podcast complet en podcasts individuels par sujet.

Vous retrouverez sur le site april.org et sur le site causecommune.fm, une page avec toutes les références utiles ainsi que les moyens de nous contacter, n’hésitez pas à nous faire des retours. Si vous voulez nous laisser un petit message, vous pouvez nous laisser un petit message sur le répondeur de la radio en appelant le 09 72 51 55 46, je répète 09 72 51 55 46, nous sommes preneurs de vos retours ou simplement de questions ou de commentaires.

Nous vous remercions d’avoir écouté l’émission. Si vous avez aimé cette émission n’hésitez pas à en parler le plus possible autour de vous. Faites également connaître la radio Cause Commune, la voix des possibles.

La prochaine émission aura lieu en direct mardi 22 septembre 2020 à 15 heures 30. Notre sujet principal portera sur les collectivités et le logiciel libre.

Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi prochain et d’ici là, portez-vous bien.

Générique de fin d'émission : Wesh Tone par Realaze.

S'inscrire à la liste d'information dédiée à l'émission « Libre à vous ! »

lun, 09/21/2020 - 13:14

Pour savoir toutes les nouvelles de l'émission Libre à vous ! sur les libertés informatiques, inscrivez-vous à la lettre d'actus.

Vous y recevrez régulièrement les actualités concernant l'émission : annonce des podcasts, des émissions à venir et de toute autre actualité en lien avec l'émission.

Cette lettre d'information est complémentaire du flux RSS des podcasts de l'émission. Vous pouvez aussi vous abonner à ce flux, compatible avec la baladodiffusion (podcast) que vous pouvez utiliser avec un logiciel permettant la lecture d'un ensemble de flux de podcasts audio (GPodder par exemple, qui est disponible sur plusieurs plateformes).

S'abonner à la lettre d'actus

S'abonner au podcast

« Libre à vous ! » diffusée mardi 22 septembre 2020 sur radio Cause Commune

lun, 09/21/2020 - 09:35

Au programme de l'émission : collectivités et logiciel libre avec Claudine Chassagne adjointe au Maire de la commune de Saint Martin d'Uriage ; chronique de Noémie Bergez, avocate au cabinet Dune, sur l'invalidation du « Privacy shield » ; chronique de Jean-Christophe Becquet, vice-président de l'April, sur Sésamath et les ressources pédagogiques libres.

Émission Références Transcription --> Contact

Libre à vous !, l'émission pour comprendre et agir avec l'April, chaque mardi de 15 h 30 à 17 h sur la radio Cause Commune (93.1 FM en Île-de-France et sur Internet).

Au programme de la 75e émission :

  • Notre sujet principal porte sur le thème des collectivités et du logiciel libre avec Claudine Chassagne, adjointe au Maire, commune de Saint Martin d'Uriage, en charge (entre autres) du numérique
  • la chronique « In code we trust » de Noémie Bergez, avocate au cabinet Dune, qui portera sur l'invalidation du « Privacy shield »
  • la chronique « Pépites libres » de Jean-Christophe Becquet, vice-président de l'April, qui portera sur Sésamath et les ressources pédagogiques libres
  • diverses annonces
Réécouter en ligne

Votre navigateur ne supporte pas l'élément audio : écoutez l'émission (format OGG) ou format MP3.

podcast OGG et podcast MP3

-->

S'abonner au podcast

S'abonner à la lettre d'actus

Podcasts des différents sujets abordés

Les podcasts seront disponibles après la diffusion de l'émission (quelques jours après en général).

N'hésitez pas à nous faire des retours sur le contenu de nos émissions pour indiquer ce qui vous a plu mais aussi les points d'amélioration. Vous pouvez nous contacter par courriel, sur le webchat dédié à l'émission (mais nous n'y sommes pas forcément tout le temps) ou encore sur notre salon IRC (accès par webchat). Vous pouvez nous laisser un message sur le répondeur de la radio en appelant le 09 72 51 55 46

toc_collapse=0; Sommaire 
  1. Personnes participantes
  2. Galerie photos
  3. Références pour la chronique de Noémie Bergez
  4. Références pour la partie sur collectivités et logiciel libre
  5. Références pour la chronique de Jean-Christophe Becquet
  6. Références pour la partie sur les annonces diverses
  7. Pauses musicales
  8. Licences de diffusion, réutilisation
Personnes participantes

Les personnes qui ont participé à l'émission :

  • Frédéric Couchet, délégué général de l'April
  • Claudine Chassagne, adjointe au Maire, commune de Saint Martin d'Uriage, en charge (entre autres) du numérique
  • Jean-Christophe Becquet, vice-président de l'April
  • Noémie Bergez, avocate au cabinet Dune
  • Patrick Creusot, bénévole à l'April (à la régie)
Galerie photos

Vous pouvez voir quelques photos prises pendant l'émission.

--> Références pour la chronique de Noémie Bergez Références pour la partie sur collectivités et logiciel libre Références pour la chronique de Jean-Christophe Becquet Références pour la partie sur les annonces diverses Pauses musicales

Les références pour les pauses musicales :

Licences de diffusion, réutilisation

Les podcasts sont diffusés selon les termes d’au moins une des licences suivantes : licence Art libre version 1.3 ou ultérieure, licence Creative Commons By Sa version 2.0 ou ultérieure et licence GNU FDL version 1.3 ou ultérieure. Les musiques sont diffusées sous leur propre licence.

$( document ).ready(function() { var hash = document.location.hash; if (hash) { var tab = $(hash).parent('.tabcontent').attr('data-fromtab'); document.getElementById(tab).click() } });

« Libre à vous ! » sur radio Cause Commune (22 septembre 2020)

lun, 09/21/2020 - 09:08
Start: 22 Septembre 2020 - 15:30End: 22 Septembre 2020 - 17:00

Réécouter en ligne

Lire la transcription

-->

75e émission Libre à vous ! de l'April en direct sur radio Cause Commune 93.1 FM en Île-de-France, et sur le site web de la radio, mardi 22 septembre 2020 de 15 h 30 à 17 h. Le podcast de l'émission et les podcasts par sujets traités sont disponibles dès que possible, quelques jours après l'émission en général.

Au programme :

  • Notre sujet principal porte sur le thème des collectivités et du logiciel libre avec Claudine Chassagne, adjointe au Maire, commune de Saint Martin d'Uriage, en charge (entre autres) du numérique
  • la chronique « In code we trust » de Noémie Bergez, avocate au cabinet Dune, qui portera sur l'invalidation du « Privacy shield »
  • la chronique « Pépites libres » de Jean-Christophe Becquet, vice-président de l'April, qui portera sur Sésamath et les ressources pédagogiques libres

Nous contacter pour poser une question :

Intervenir pendant le direct (mardi 22 septembre 2020 de 15h30 à 17h00) :

Écouter le direct mardi 22 septembre 2020 de 15 h 30 à 17 h 00   S'abonner au podcast

Les ambitions de l'émission Libre à vous !

La radio Cause commune a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons alors proposé de tenir une émission April intitulée Libre à vous ! l'émission pour comprendre et agir avec l'April — d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission est également consacrée aux actualités et actions de type sensibilisation. L'émission Libre à vous ! est principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées. Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission hebdomadaire, qui est diffusée en direct chaque mardi du mois de 15 h 30 à 17 h.

Les archives de l'émission

Écouter les émissions précédentes

Data et algorithmes ; gouvernementalité algorithmique et idéologie des big data - Antoinette Rouvroy

dim, 09/20/2020 - 18:09


Titre : Rencontre avec Antoinette Rouvroy : la data et les algorithmes ; gouvernementalité algorithmique et idéologie des big data
Intervenante : Antoinette Rouvroy
Lieu : Bruxelles
Date : février 2018
Durée : 16 35 min
Visualiser la vidéo
Licence de la transcription : Verbatim
Illustration : capture d'écran de la vidéo
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Antoinette Rouvroy docteur en sciences juridiques et chercheuse qualifiée du FNRS [Fonds de la recherche scientifique], Université de Namur. Elle développe le concept de gouvernementalité algorithmique qui tend à expliciter la manière dont les algorithmes imposent une gestion des sociétés sur la base des données qui s'échappent des individus.
Un entretien filmé par Thomas Gouritin, journaliste et créateur de la chaîne Regards Connectés.

Transcription Biais et représentation du réel

La prévention des biais des algorithmes est une sorte d’obsession contemporaine, mais qui est liée précisément aux ambitions propagées par l’idéologie technique des big data du fait que les big data, en fait, nous dispenseraient de la représentation. Or, en tant qu’êtres humains, nous n’avons accès au monde qu’à travers la représentation que nous nous en faisons, c’est-à-dire qu’à travers nos biais.
Les biais ne sont pas nécessairement absolument quelque chose à abattre ou à vouloir combattre absolument. L’idée qu’il serait possible de supprimer tous les biais et de réellement avoir accès au monde lui-même, directement, est une idée qui est complètement fausse.
Comme cette idée de post-vérité est dans une certaine mesure aussi une idée un peu fausse, dans la mesure où on n’a jamais eu accès à la vérité. Ce n’est pas qu’avant on avait accès à la vérité et le domaine des big data ne vont pas nous donner un accès tout à fait objectif au réel tel qu'il est. Le monde nous restera toujours mystérieux quel que soit le raffinement des algorithmes à travers lesquels on va essayer de l’explorer.
Cela étant dit, il y a des biais qui sont identifiables, qui ne sont pas nécessairement négatifs, qui peuvent l’être, mais objectiver, tenter d’objectiver ou, en tout cas, nommer les biais c’est quelque chose d’assez important si on veut pouvoir opérer une critique, une constestabilité ou une auditabilité des processus algorithmiques.

Premièrement, les biais sont déjà dans le monde physique qui est enregistré sous forme de données.
L’idéologie technique des big data prétend enregistrer passivement le monde tel qu’il est, mais il ne l’objective pas. C’est-à-dire qu’en transcrivant le monde sous forme de données on ne le purifie pas du même coup de tous les rapports de pouvoir, les rapports de domination, les rapports de force qui font que l’état de fait est ce qu’il est. Or, les données transcrivent l’état de fait tel qu’il est sans en transcrire les conditions.
C’est-à-dire que quand on transcrit le monde physique sous une forme de données — d’ailleurs c’est même bien souvent une obligation si on ne veut pas tomber sous le coup de l’application des régimes de protection des données à caractère personnel, ce qui est assez coûteux pour une entreprise, par exemple — eh bien on est obligé d’anonymiser. Anonymiser ça veut dire aussi désindexer, décontextualiser, c’est-à-dire oublier, rendre les données amnésiques de leur source, amnésiques de leurs conditions de production. En rendant les données amnésiques de leurs conditions de production, on les fait apparaître comme des faits neutres, des pures présences ; Derrida parle à cet égard de présence sans existence. C’est-à-dire qu’on ne peut plus rattacher les données à un référentiel originaire par rapport auquel on pourrait évaluer leur validité. Donc déjà là il y a une sorte de divorce, si vous voulez, d’avec l’idée même d’une possibilité de critique par la neutralisation ou la naturalisation de l’état de fait par la transcription sous forme de données.
Ça c’est un premier biais. Ce biais-là est difficile à combattre, il est difficilement curable à moins d’exiger toujours la possibilité de pouvoir accéder à la source de la donnée.
Là se pose toute une question d’éditorialisation des corpus, etc., mais alors on ne pourra plus adhérer à l’idéologie technique des big data qui dit qu’on peut se passer de théorie. On perd quand même tout ce qui a fait un peu le buzz autour de ces big data, mais c’est une voie absolument intéressante et je pense qu’il faut en revenir à ça dans une certaine mesure.

Deuxième type de biais, il tient aux métriques des algorithmes. Quand un algorithme analyse des données, il va accorder un certain poids — je caricature un peu — à certains types de données, un autre poids à d’autres types de données qui proviennent de telle région du monde numérisé ou de telle région de l’univers numérisé. Ces métriques sont décidées. Elles ont été décidées par des ingénieurs en fonction d’objectifs qui ne sont pas toujours très explicités. On pourrait exiger l’explicitation de ces objectifs, c’est ce qu’on appelle la fonction objective d’un algorithme. Expliciter pourquoi on donne plus de poids à tel type de données qu’à tel autre. C’est une manière de rendre l’algorithme non pas transparent mais de rendre les intentions ou la fonction d’algorithme transparente.

Big data, causalité et corrélation

Il y a quand même toute une série de mouvements qui vont dans le sens d’une revendication ou de demandes de plus grande transparence des algorithmes ou une auditabilité ou une intelligibilité ou une interprétabilité des algorithmes. Il y a des travaux plutôt dans le domaine technique pour rendre les algorithmes auditables, etc. On peut le faire dans une certaine mesure, une mesure qui est un peu limitée par les perspectives d’auto-apprentissage justement. Quand vous avez des algorithmes qui deviennent auto-apprenants ça veut dire aussi qu’ils s’émancipent progressivement des programmations qui leur ont été inculquées.
On parle d’apprentissage supervisé. Lorsqu’il s’agit d’apprentissage supervisé les ingénieurs gardent la main sur les jeux de données qu’ils introduisent en entrée, sur les jeux de données qu’ils corrigent pour obtenir le résultat souhaité, etc. Donc là ça reste quelque chose d’assez métrisable.
Quand on parle d’apprentissage non-supervisé dans ce cas-là les algorithmes apprennent d’eux-mêmes en fonction des données auxquelles ils sont exposés. Larry Lessig disait Code is Law, « Le code est la loi », là, finalement, ce n’est même plus le code qui est la loi, ce sont les données, ce sont les données qui enseignent : les données enseignent à l’algorithme. Là, la logique algorithmique devient aussi compliquée et à la limite imprévisible que le monde physique lui-même, que la sauvagerie des faits. Donc ces résultats sont aussi assez imprévisibles, ce qui est intéressant en soi, aussi. Je ne condamne pas du tout les algorithmes, ils peuvent être très intéressants dans la mesure où ils sont équipés, justement, d’une sorte de curiosité automatique, c’est-à-dire que les algorithmes n’ont pas tous les biais que nous avons.
Nous avons des biais perceptuels qui sont liés au fait que nous avons un corps qui est situé dans l’espace et, par exemple, notre champ de vision est borné, donc nous avons toujours un point de vue. Ce point de vue détermine ce qui nous est perceptible, ce qui nous est intelligible, ce qui nous est interprétable.
L’algorithme, par contre, lui vit dans un espace tout autre. Son mode d’existence est complètement différent du nôtre. Il peut voir de façon simultanée ou percevoir ou enregistrer ou calculer, mettre en corrélation des points de données qui sont très éloignés les uns des autres dans l’espace, dont les sources sont très éloignées dans l’espace. L’algorithme, si vous voulez, se meut dans un univers tout autre et peut percevoir des choses qui nous seraient complètement imperceptibles. Donc les algorithmes peuvent être très intéressants dans la mesure où ils font parler le monde, y compris le monde social, d’une manière tout autre que nous en tant qu’êtres humains, avec des points de vue situés, sommes capables de le faire parler. Ça peut être intéressant pour rendre visibles certaines portions du réel qui resteraient sinon inaccessibles, mais ça peut être dangereux aussi dans la mesure où on se suffit, où on se satisferait de la seule corrélation. C’est-à-dire que si on se satisfait de la seule détection automatisée, automatique, de corrélation dans des quantités massives de données, le risque est grand d’interpréter les résultats de façon erronée, c’est-à-dire de penser qu’il peut y avoir des causalités sous-jacentes à des corrélations qui sont détectées entre, par exemple, des données qui ne sont en fait que des bruits. Ça a été démontré mathématiquement notamment par Giuseppe Longo, le mathématicien. Il dit, finalement, que plus les quantités de données s’accroissent, plus statistiquement vous avez des risques de produire des spurius correlations, c’est-à-dire des corrélations abusives entre des choses qui sont corrélées, mais c’est le pur résultat du hasard, c’est-à-dire que la corrélation ne signifie en fait rien, elle n’est donc pas opérationnelle.
En plus vous avez des risques d’erreur d’interprétation des corrélations mêmes. C’est-à-dire que si vous détectez dans un grand ensemble de données que les points A et B se trouvent fréquemment coprésents, vous allez dire qu’il y a une corrélation relativement forte ; dès que A bouge B bouge aussi, donc vous dites qu’il y a une corrélation forte. Mais cette corrélation peut s’interpréter de diverses manières, soit elle s’interprète en disant que c’est A qui cause B, soit on peut dire que c’est B qui cause A, soit c’est C, qu’on n‘a pas aperçu, qui est la cause des deux, qui est la cause de A et B. Donc vous voyez ! Il y a des cas dans lesquels recourir à des algorithmes et à cette logique de corrélation plutôt que d’essayer de trouver la causalité et de comprendre réellement le monde dans lequel on vit peut-être très utile, peut économiser du temps, de l’argent, nous permettre d’avoir un rapport plus granulaire, moins sélectif au monde, donc ça peut être très intéressant. Mais il est des cas dans lesquels se satisfaire de la corrélation est contraire à la plus élémentaire prudence. Je pense par exemple à la black box medecine qui est en train de se développer aujourd’hui dans laquelle, finalement, on fait des essais cliniques non plus en recrutant des participants, des sujets humains, mais en faisant des pures simulations sur des bases de données, des masses de données massives évidemment parce qu’on a énormément de données de santé, c’est le secteur des big data qui croit le plus rapidement aujourd’hui, donc c’est très intéressant. Mais si on ne soucie pas de la causalité, c’est-à-dire des mécanismes physiques qui causent les phénomènes pathologiques, on risque fort, si on en arrive à faire de la prescription de certaines alternatives thérapeutiques à des personnes concrètes, à des personnes en chair et en os, d’aboutir à des risques assez substantiels d’effets secondaires potentiellement dangereux.
Vous voyez qu’il y a des cas dans lesquels on peut se satisfaire d’une pure logique d’optimisation fondée sur de la corrélation. Il y a des cas dans lesquels c’est insuffisant.
Les cas dans lesquels c’est insuffisant, même dans ces cas-là, il n’est pas nécessairement indiqué de se priver totalement des algorithmes. Les algorithmes peuvent être une première indication. La difficulté, dans ce cas-là, c’est ne pas conférer à la prédiction ou à la recommandation algorithmique une force normative qu’elle ne doit pas avoir. C’est-à-dire qu’elle doit réellement laisser la place pour une délibération humaine, pour qu’on puisse prendre en compte les éléments non-numérisés, non-numérisables qui sont notamment l’interprétation que les gens peuvent faire de ce qui leur est arrivé de faire de leur propre comportement, de leur propres intentions, etc., rendre compte de soi-même.

Gouvernementalité algorithmique

Je dirais, pour faire simple, que c’est un mode de gouvernement qui est nourri essentiellement par des données numériques, donc c’est une modélisation du monde, du monde social, qui est fondée plutôt sur des données quantifiables, sur les sortes de phéromones numériques qui surgissent, qui se collectent en temps réel ou qui prolifèrent au niveau du monde physique plutôt que sur des normes sociales, politiques, idéologiques préétablies. Donc c’est une sorte de gouvernement qui a des prétentions à une sorte d’immanence. C’est comme si c’était le réel qui se gouvernait lui-même à travers les données. Les données qui, dans cette idéologie des big data, une idéologie technique des big data, passe pour être, en quelque sorte, le langage des choses elles-mêmes, donc qui prétendent nous dispenser de toute interprétation, de toute transcription. C’est comme si c’était le monde qui parlait spontanément à travers les données.
Je disais que c’est un mode de gouvernement qui est nourri essentiellement de données, on parle même de données brutes. Quand on dit « données brutes », ça paraît encore un peu plus spontané, alors que les données brutes sont toujours produites et les données ne sont pas des faits, elles sont toujours des effets, des rapports de force, de domination, de situations qu’on n’a pas changées alors qu’on aurait pu les changer. Donc il y a une sorte de naturalisation ou de neutralisation des faits qui en passe par cette transcription du monde physique sous une forme numérique, fragmentée, décontextualisée, désindexée, anonymisée, donc la fabrication des données brutes. Donc nourri essentiellement de données brutes.
Ce qui change, se fondant plutôt sur des données sur la détection de patterns ou de modèles, c’est-à-dire la détection de corrélations au sein de quantités massives de données, plutôt que sur des catégories qui correspondent à des groupements humains socialement éprouvés.
Plutôt que de gouverner les gens en fonction de leur appartenance par exemple à un groupe ethnique déterminé, à une tranche d’âge déterminée ou à une catégorie socioprofessionnelle déterminée, eh bien on va les gouverner, c’est-à-dire qu’on va personnaliser les interactions gouvernementales, les interactions sécuritaires, les interactions commerciales qu’on peut avoir avec eux à travers la détection de leur profil – profil de consommateur, profil de fraudeur potentiel, profil de terroriste potentiel. Donc on voit là aussi un glissement. Ce ne sont plus non seulement les données qui comptent, les données numérisées qui comptent, mais en plus il y a un glissement. La cible de cette forme de gouvernement n’est plus l’actualité, mais c’est la potentialité, ce dont les corps sont capables, ce dont les gens sont capables, etc.
On voit bien, finalement, un profil ce n’est personne, ce n’est personne actuellement. Un profil c’est une sorte d’espace spéculatif qui désigne des opportunités et des risques dont les formes de vie, impersonnelles, sont porteuses.
Ce mode de gouvernement paraît à la fois très objectif dans le sens où, précisément, il n’en passe plus par les catégories prédéterminées, idéologiquement marquées, toujours politiquement débattables, les catégories préétablies, mais se désintéresse complètement de ces catégories et se désintéresse aussi de qui sont les gens. En fait, c’est un mode de gouvernement qui ne gouverne plus les individus en les individualisant, en les identifiant, en les traquant personnellement. C’est pour ça que la notion de données personnelles dans ce mode de gouvernement perd un peu en pertinence au profit de données anonymes qui sont corrélables avec d’autres données anonymes de façon à former des profils de comportement. Ce mode de gouvernement se désintéresse à la fois des individus et à la fois des groupements dans lesquels ils se situent et des groupements qui sont signifiants pour eux.
Finalement ce désintérêt à la fois pour la singularité des vies et pour leur inscription dans des contextes collectifs, c’est ce qui confère à ce mode de gouvernement à la fois une aura d’impartialité très grande mais aussi une sorte d’incontestabilité, une très grande difficulté qu’on peut avoir à contester des décisions qui sont prises sur base de détection d’opportunités et de risques, c’est-à-dire de personnes en fait.

Stand de sensibilisation au Logiciel Libre - 19 septembre 2020 à Figéac

ven, 09/18/2020 - 19:04
Start: 19 Septembre 2020 - 12:00End: 19 Septembre 2020 - 18:00

Lors de l'évènement Faites des Alternatives qui aura lieu à Figeac (Lot) samedi 19 septembre de 12 h à 18 h, deux membres de l'April tiendront un stand de sensibilisation et information sur les logiciels libres.

Intelligences artificielles à l'heure du coronavirus - France Inter

ven, 09/18/2020 - 12:56


Titre : Intelligences artificielles à l'heure du coronavirus
Intervenant·e·s : Laurence Devillers - Antonio Casilli - Nathalie, voix off - Dorothée Barba
Lieu : L'été comme jamais - France Inter
Date : août 2020
Durée : 35 min [NB : Le coup de fil à la presse, Répondeur d'Inter et le Conseil cinéma sont des parties non transcrites]
Écouter ou enregistrer le podcast
Site de présentation de l'épisode
Licence de la transcription : Verbatim
Illustration : Mental health - Licence Creative Commons CC0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

De visioconférence en téléconsultation médicale, la crise sanitaire a changé notre rapport aux algorithmes. De quelle manière le coronavirus et le confinement ont changé notre vision des intelligences artificielles ? Quels changements sont à prévoir pour le monde de demain ?

Transcription

[Clip d’introduction]

Dorothée Barba : Dis Siri, ai-je raison de m'inquiéter ? Comme beaucoup de monde en ce moment, j’ai peur d'une deuxième vague de Covid-19. J’ai peur d’un éventuel reconfinement. J'avais besoin de savoir. Alors j’ai demandé à l'assistant vocal d'Apple, qui a réponse à tout : « Dis Siri, y aura-t-il une deuxième vague ? » En vrai, j'espérais un peu qu'il ne comprendrait pas et que sa réponse serait amusante, qu’il me parlerait d'océan et de vagues à surfer. Mais non, Siri a compris ma question. Sauf qu’en guise de réponse, il me renvoie sur des articles qui datent de juin dernier, sur la crainte d’une deuxième vague. L’assistant vocal, en l’occurrence, ne surfe pas sur l’actu brûlante ! Merci Siri, mais tu ferais mieux de me parler de l'écume des vagues.
Toutes les crises offrent l’occasion de se poser les bonnes questions. Celle du covid doit assurément nous permettre d’interroger l’intelligence artificielle qui est déjà partout dans nos vies. Y a-t-il un effet covid sur notre relation avec elle ? Que peut-elle pour nous cette intelligence artificielle, notamment sur le plan médical ? Mais quels risques implique-t-elle aussi ? Quelles limites doit-on fixer pour des machines plus éthiques ?
N’hésitez pas à nous poser toutes vos questions à la page de L’été comme jamais sur franceinter.fr ou sur l’application mobile de France Inter, deux spécialistes sont là pour vous répondre. « Intelligences artificielles à l’heure du coronavirus ». Soyez les bienvenus

Voix off : Dorothée Barba, 9 heures 11 heures sur France Inter.

Dorothée Barba : Avec deux invités en direct, deux spécialistes de l’AI ou de l’IA, l’intelligence artificielle. Bonjour Antonio Casilli.

Antonio Casilli : Bonjour Dorothée Barba.

Dorothée Barba : Bienvenue. Vous êtes sociologue, professeur à Télécom Paris, chercheur à l’EHESS [École des hautes études en sciences sociales]. Vous avez fait paraître l’an dernier au Seuil un livre intitulé En attendant les robots – Enquête sur le travail du clic. Comment comprenez-vous les réponses de Siri, notamment qu’elles soient si datées sur la deuxième vague ? Est-ce que c’est une façon de ne pas trop se mouiller, Antonio Casilli ?

Antonio Casilli : Finalement, il faut aussi interpréter Siri comme une base de connaissances et cette base de connaissances est mise à jour régulièrement, c’est-à-dire que Siri reçoit des réponses types à des questions très courantes.

Dorothée Barba : Il y avait des articles beaucoup plus récents sur la deuxième vague.

Antonio Casilli : Tout à fait. Et, en même temps, on est dans une situation dans laquelle nos propres connaissances sur le virus, sur la situation et sur les mesures contre le virus changent chaque jour ou chaque semaine. Donc afin d’éviter de proposer une réponse certes plus actuelle que celle que Siri vous a proposée, qui remonte au mois de juin, mais peut-être moins stable, moins solide du point de vue scientifique ou politique, il vous a donné cette réponse-là.

Dorothée Barba : Depuis les studios de France Bleue à Bayonne, j’accueille Laurence Devillers. Bonjour à vous.

Laurence Devillers : Bonjour à vous.

Dorothée Barba : Bienvenue. Professeure en intelligence artificielle à la Sorbonne à Paris, vous êtes chercheuse au laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Vos derniers ouvrages s’intitulent Des robots et des hommes et plus récemment Les robots émotionnels aux Éditions de l’Observatoire ainsi que La souveraineté numérique dans l’après-crise. Et vous, Laurence Devillers, que pensez-vous de cette réponse un peu vieillotte de Siri sur la deuxième vague ?

Laurence Devillers : En fait, Siri est un système qui travaille sur du traitement automatique du langage, qui est mon domaine de recherche, et ce n’est pas très malin. Il ne comprend rien à ce qu’il répond et ce n’est pas étonnant que même en faisant une recherche sur Internet il ne soit pas capable de trouver forcément le bon article. Il s’intéresse juste à la composition des mots présents dans l’article, donc il peut très bien vous sortir un vieil article comme un article plus nouveau sans toutefois avoir conscience de ce qui est en train de se passer. Il n’a aucune compréhension. C’était amusant de vous entendre dire « il n’a pas su surfer sur l’actualité ».

Dorothée Barba : L’intelligence artificielle n’est pas très maligne. On a un premier élément de réponse. On se plonge avec vous deux dans cette discussion dans un instant, mais d’abord, comme tous les jours, un coup de fil à la presse et le mardi la parole est à Causette. Bonjour Isabelle Motrot.

[Coup de fil à la presse, partie non transcrite]

Dorothée Barba : Dans quelques instants on serre la pince à des robots. L’intelligence artificielle au temps du coronavirus avec vos questions et commentaires à la page de L’été comme jamais sur notre site internet. Vous écoutez France Inter, en voilà une bonne idée ! Il est 10 Heures et quart.

Pause musicale : Ce qui restera par Vincent Delerm.

Dorothée Barba : C’était Vincent Delerm, Ce qui restera.

Voix off : France Inter, L’été comme jamais

Dorothée Barba : Deux éminents spécialistes de l’intelligence artificielle sont mes invités jusqu’à 11 heures, Laurence Devillers en duplex de Bayonne et Antonio Casilli ici en studio.
J’aimerais que nous commencions par la santé, même si ce n’est pas évidemment le seul sujet lorsqu’on parle des liens entre le covid et les algorithmes.
Laurence Devillers, la technologie est-elle au cœur de la bataille contre ce virus ?

Laurence Devillers : Je pense que vous avez raison, oui, c’est assez au cœur. On a déjà des outils numériques qu’on utilisait, mais on a vu une amplification forte parce que, évidemment, être proches c’est dangereux en ce moment, donc la distanciation qu’on peut avoir avec des robots, est intéressante.
Quels sont les usages ? Je dirais que c’est à la fois pour protéger, tester, isoler et anticiper, en fait, qu’on va utiliser ces outils, par exemple pour la recherche de vaccins, pour comprendre avec qui vous êtes en contact et, si vous êtes contaminé par le virus, alerter tout le monde. Ce sont des informations, donc c’est à la fois des statistiques pour du long terme, c’est aussi de la télémédecine, on a vu un bond incroyable en télémédecine, dont vous parliez tout à l’heure, et qui est très intéressant.
Tous ces outils, en fait, étaient pour la plupart encore peu utilisés, ils vont le devenir beaucoup et c’est important de comprendre qu’ils vont contribuer pour nous à concilier les objectifs sanitaires avec les objectifs sociaux et économiques. On a gardé des liens sociaux grâce à des Zoom qu’on faisait en famille, à des Zoom avec son médecin pour suivre finalement la maladie. Par exemple moi j’ai eu le covid et j’ai été très contente d’avoir effectivement tous ces liens possibles.
Il faut comprendre que toutes ces technologies sont à notre service, mais il faut pouvoir s’en servir correctement.
Donc elles font apparaître effectivement, comme vous le disiez au début Barbara, des tensions éthiques. C’est sur cela, je pense, qu’il faut réfléchir dans la société, tous ensemble, pour essayer de comprendre quels sont justement les cadres, les protocoles à mettre en place.

Dorothée Barba : Avant d’en venir peut-être aux tensions éthiques, un mot sur ce service hospitalier en Chine qui a été intégralement robotisé, inauguré au printemps. Est-ce une solution à vos yeux ?

Laurence Devillers : C’était une solution sur la distanciation. Il y avait beaucoup d’utilité à la fois pour apporter des repas aux gens qui étaient malades, désinfecter les lieux, donc le robot servait à de multiples tâches.
Il est intéressant, quand même, de se poser la question de leur utilité avec des humains. Il ne s’agit pas de remplacer les humains. Il s’agit de les remplacer pour certaines tâches qui sont pénibles, difficiles ou à risque comme on l’a vu dans la pandémie, à cause de ce problème de virus qu’on peut attraper.
Il me semble que l’expérimentation qui a été faite en Chine est intéressante en cela. Il n’est pas souhaitable de reproduire cela sans une éducation forte à la fois des soignants et des patients pour qu’on comprenne bien l’utilité, la complémentarité avec l’humain. En fait, l’humain est au centre de tout cela. Je travaille sur ces objectifs de robots sociaux, de robots pour aider les personnes dépendantes ou aider les malades ou aider les personnes handicapées, toujours dans le sens où l’humain est au centre. C’est comme ça qu’on développe cela. Les positions extrémistes en disant « non, c’est terriblement inutile » ou « allons totalement vers un monde robotisé » ne sont pas souhaitables.

Dorothée Barba : On imagine bien les réactions ulcérées que ça peut susciter dans le grand public, l’idée de voir des robots remplacer les soignants et les soignantes.

Laurence Devillers : C’est pour ça qu’ils ne remplacent pas. Ils sont incapables, comme je disais tout à l’heure avec Siri. Il y a un problème fondamental de technologie qui ne sera pas résolu si facilement. Le sens commun, la compréhension qu’on affine, le fait qu’on a un corps, qu’on ressent les choses, la machine en est totalement dépourvue. Ce n’est pas juste avec des modèles qui vont acquérir des données, même en grande quantité, qu’on va remplacer l’intuition, la créativité de l’humain, son imagination et sa façon de s’adapter très rapidement à des situations.
Donc je crois que cette idée, en tout cas cette peur qui existe, vous avez raison, de remplacement, elle est assez peu réelle. Elle fait partie d’une sur-capacitation que l’on pousse, que l’on porte à ces machines. En fait, on ferait bien de s’intéresser plus à la manipulation qu’elles peuvent avoir sur nous et qui est vraiment le sujet de mes recherches actuellement avec cette idée de « si je détecte l’affect, si je suis capable de faire une machine qui simule une certaine empathie, qui singe l’humain, quelles vont être les conséquences ? Quelles vont être les possibilités de manipulation ? ». On voit très bien en santé qu’il y a d’énormes progrès qu’on pourrait faire avec ces sortes d’outils pour aider, accompagner. On voit aussi terriblement un monde économique de business qui s’accapare ces technologies, sans garde-fous, sans régulation.
En tout cas, on est en train de construire dans le monde de la recherche et plus largement avec le gouvernement des comités d’éthique. Je fais partie d’un comité d’éthique [Comité National Pilote d'Éthique du Numérique] qui est sous le Premier ministre, une sorte de CCNE [Comité consultatif national d'éthique], que vous connaissez maintenant sur la bioéthique, dans le numérique et également un partnership en AI, c’est-à-dire un comité international qui regroupe 15 pays, qui a été monté par le président Macron et le Premier ministre Trudeau au Canada, pour faire qu’il y ait cette concertation internationale sur ces sujets. Prendre conscience, trouver les bonnes régulations et arrêtons d’avoir peur. Il faut utiliser ces machines le mieux possible.

Dorothée Barba : Au chapitre santé toujours, Antonio Casilli, venons-en au Health Data Hub1. C’est une plateforme qui recense les données médicales des Français, les données du ministère de la Santé. L’hébergement a été confié à Microsoft. Que pensez-vous de ce choix ?

Antonio Casilli : Il a été défendu par le gouvernement comme un choix commercial, comme un choix qui était aussi dû à certaines limitations des partenaires possibles en France, qui n’étaient pas prêts à assurer la puissance de calcul, de stockage nécessaire. Toujours est-il qu’il nous met face au paradoxe du discours français sur la souveraineté numérique qui est un sujet qui est débattu récemment et qui, grosso modo, revient d’une part à dire qu’il faut défendre certains intérêts qui sont de nature politique, qui sont aussi des valeurs politiques, qui sont aussi des intérêts commerciaux de la France, mais, de l’autre côté aussi de s’opposer à la surpuissance de certaines grandes entreprises qui sont dans certains cas, du moins pour notre partie du monde, souvent des entreprises de la Silicon Valley. Donc on se trouve face à ce type de problème.
Le Health Data Hub représente peut-être l’instanciation, l’exemplification de ce type de paradoxe parce que d’un certain point de vue le gouvernement français insiste beaucoup sur le fait de défendre cette souveraineté numérique et, de l’autre côté, parfois, doit accepter les compromis. Ça c’est, si on veut, la vision possibiliste et qui n’est pas véritablement critique de cette manœuvre. La manière critique d’envisager ce problème revient à dire que derrière ce discours de la souveraineté se cache une convergence d’intérêts de certains gouvernements, certaines administrations, certains pays y compris le nôtre et, effectivement, les intérêts des grandes entreprises capitalistes de la Silicon Valley. Grosso modo, défendre la souveraineté numérique au nom aussi de la défense des données des citoyens, parfois revient aussi tout simplement à chercher à faire exactement ce que la Silicon Valley fait, mais à la française.

Dorothée Barba : Qui vous dit que ce serait moins grave si j’ose dire, Antonio Casilli, un contrôle de nos données par des entreprises européennes ?

Antonio Casilli : Le problème est exactement quelle est la spécificité de ces entreprises européennes ? Est-ce que nous avons des entreprises européennes qui sont, par le fait même d’être européennes, plus éthiques, plus respectueuses de certaines lois ? Il y a certainement certaines contraintes qui pèsent sur certaines entreprises, je pense par exemple des contraintes de nature financière, de nature fiscale. Toujours est-il qu’on voit que la régulation de ces entreprises est loin d’être un processus linéaire. C’est un aller-retour entre les grands groupes industriels et les personnes qui gouvernent, les législateurs européens, et ce type de négociation ne se solde pas toujours dans le meilleur sens, au sens de respect des intérêts des citoyens.

Dorothée Barba : Laurence Devillers, comment l’Europe peut-elle reprendre le contrôle de l’industrie numérique et de l’intelligence artificielle ?

Laurence Devillers : Il faudrait déjà faire confiance, en fait, à la science, à la technologie. On a une force de frappe non négligeable sur ces technologies en Europe. On a aussi déjà prouvé avec les législations qu’on était capables d’être créatifs avec la GDPR2 [General Data Protection Regulation] qui nous était pas mal enviée par les Américains d’ailleurs. Je pense qu’il faut continuer dans ces voies-là. Je suis toujours étonnée du paradoxe de la privacy telle qu’elle est énoncée souvent.

Dorothée Barba : De la vie privée.

Laurence Devillers : C’est-à-dire qu’il a beaucoup de personnes qui ont eu une position très forte sur la possibilité de perte de liberté à cause, justement, d’une souveraineté numérique qui viendrait de l’Europe ou de la France, alors que ce sont des personnes qui donnent leurs données sans problème sur Facebook, Twitter, Internet en général, qui sont des réseaux qui sont tenus par les GAFA.

Dorothée Barba : Nous sommes pétris de contradiction en la matière !

Laurence Devillers : J’ai écrit effectivement un petit livre sur la souveraineté numérique dans l’après crise montrant qu’il fallait faire très attention et que, effectivement, les GAFA étaient en train d’en prendre le lead ou, en tout cas, posaient des jalons très forts sur beaucoup de domaines que sont l’éducation, la santé – vous avez parlé du Health Data Hub –, mais aussi sur l'éducation, aussi sur le grand âge. J’ai vu que Facebook a proposé des iPad dans les Ehpad. Donc il y a cette idée de mettre en pied dans la porte sur beaucoup de sujets et de continuer à être, finalement, le tonton d’Amérique qui apporte finances, meilleurs sujets, etc.
Aux États-Unis, le gouvernement privilégie, en fait, les entreprises américaines. En France, nous, on privilégie l’excellence et le rapport qualité/prix. Il est étonnant quand même qu’on ne soit pas capables aussi de privilégier le terreau européen. Je pense que c’est ça qu’il faut arriver à comprendre. Comment on peut apporter des solutions européennes qui ne seront peut-être pas aussi développées que les solutions américaines à l’instant t, mais qui, dans deux ans, pourraient rivaliser, si on ne fait pas un jour ce choix.

Dorothée Barba : Laurence Devillers, pour le dire très concrètement, est-ce que vous diriez que c’est dangereux que les données du ministère de la Santé française soient hébergées par Microsoft ?

Laurence Devillers : Bien sûr. On l’a dit. Dans le comité d’éthique où je suis on fait très attention. Je connais aussi beaucoup les chercheurs qui travaillent sur ce Health Data Hub, qui sont excellents. Il y a un vrai sujet, en fait, de gouvernance et je pense que c’est un des sujets dont on va parler dans le GPAI [Global Partnership on Artificial Intelligence] dont j’ai parlé tout à l’heure, ce comité d’éthique international, on va en parler très sérieusement. Dans ce comité sont aussi présents des industriels. Il n’est pas question, si vous voulez, de ne faire que du pro-français ou du pro-européen, il faut rester dans une interopérabilité et une ouverture, mais il est important qu’on soit au niveau, qu’on ait suffisamment de données pour être au niveau et cela n’est pas possible si on les donne tout le temps à des supports, des plateformes étrangères qui vont continuer à avancer.

Dorothée Barba : Nous reprenons ces échanges dans un instant, car il est 10 heures et demie. C’est l’heure du Répondeur d’Inter. Les auditeurs et auditrices réagissent à nos programmes.

Voix off : Le répondeur d’Inter, 01 56 40 68 68.

[Le répondeur d’Inter, partie non transcrite]

Pause musicale : Living in a Ghost Town par The Rolling Stones.

Dorothée Barba : C’est un morceau né pendant le confinement, Living in a Ghost Town par The Rolling Stones sur France Inter.

Voix off : France Inter, L’été comme jamais.

Dorothée Barba : « Les intelligences artificielles au temps du coronavirus » avec Laurence Devillers et Antonio Casilli.
Antonio Casilli vous dénoncez depuis des années la prophétie selon laquelle des robots vont remplacer les hommes et les femmes au travail. Vous répétez que c’est un mythe, qu’il y a des travailleurs derrière les intelligences artificielles. Quel est l’effet de cette crise sanitaire que nous traversons sur cette idée d’automatisation des tâches ?

Antonio Casilli : Tout d’abord c’est une excellente occasion pour les thuriféraires du remplacement mécanique, les gens qui vendent de l’intelligence artificielle, une occasion de propagande parce que c’est le moment de réactualiser tout un tas de leurs prophéties. Là on voit effectivement des personnes qui étaient des porteurs de cette idée selon laquelle les robots vont prendre nos jobs et vont nous remplacer véritablement qui, après le covid, au nom de la distanciation sociale, au nom du besoin de relancer l’économie, revendent leur recette.
Le problème est qu’on voit aussi avec le covid, avec le confinement en particulier, d’une manière assez paradoxale, que les personnes qui étaient auparavant les invisibles de cette révolution technologique deviennent de plus en plus visibles. Des personnes qui travaillaient, je ne dis pas dans l’ombre parce qu’elles sont quand même connues, elles sont étudiées même si on ne connaît pas toujours exactement le contour de leur activité, deviennent plus visibles. Je vous donne un exemple parmi d’autres, vous avez cité Siri, on pourrait citer aussi Facebook ou Twitter. Quel est le point commun entre Siri et Facebook ? Eh bien ces deux grandes solutions technologiques s’appuient sur des personnes qui, finalement, doivent calibrer les algorithmes, les intelligences artificielles. Par exemple pour Siri ce sont évidemment les personnes qui calibrent les réponses mêmes que Siri donne.

Dorothée Barba : En quoi le confinement les empêche-t-il de calibrer ?

Antonio Casilli : Le problème est que ces personnes ne peuvent pas toujours travailler depuis chez elles parce que, d’abord, elles manient de données sensibles, des données personnelles et, en plus, elles sont liées à ces entreprises ou plutôt aux sous-traitants de ces entreprises par des non disclosure agreements, c’est-à-dire des clauses de confidentialité particulièrement contraignantes. Donc elles doivent travailler dans un bureau et si, en plus, vous ajoutez que c’est souvent dans des pays qui ont été touchés par des mesures de confinement, je pense par exemple à l’Irlande, là où se trouvent les modérateurs ou les calibrateurs, on va dire, de Siri pour Apple. Je pourrais aussi citer les modérateurs de Facebook. Les modérateurs de Facebook, finalement, réalisent une activité qui est presque la même : ils filtrent des contenus problématiques, ça c’est certain, mais en même temps ils entraînent des algorithmes qui apprennent à leur tour à modérer automatiquement.

Dorothée Barba : C’est compliqué d’aller modérer des contenus problématiques, violents, érotiques ou que sais-je depuis chez soi ?

Antonio Casilli : Oui. C’est le problème qui a été pointé par les plateformes mêmes ; Twitter, Facebook, YouTube ont toutes annoncé au début des mesures de confinement que leur modération allait marcher forcément moins bien parce que les modérateurs étaient chez eux et ne pouvaient pas forcément toujours travailler sur ces données sensibles.

Dorothée Barba : On va entendre un exemple très concret, votre enquête sur les travailleurs du clic, Antonio Casilli, a été adaptée en documentaire, série documentaire en quatre épisodes à voir sur france.tv/slash/, plateforme gratuite de France Télévisions. On y découvre notamment Nathalie dont la voix a été modifiée pour des raisons de confidentialité, d’ailleurs ce n’est sans doute pas son prénom. Nathalie vit en France, elle travaille de chez elle et elle fait partie de l’armée de ceux qui entraînent Google.

Nathalie, voix off : Je me connecte via une adresse Gmail qui a été créée pour ce travail. J’atterris sur un site spécifique où les tâches sont distribuées. Là, par exemple, on est sur cette tâche de comparaison d’un mot clef et d’une recherche d’une personne et on a « La moutarde de Dijon » et « Moutarde de Dijon », « La moutarde Dijon » d’ailleurs, il n’y a pas d’article, et on nous demande de savoir si finalement ça a le même sens pour la recherche Google. On considère, bien évidemment, que ça a le même sens. Une autre, pareil, même chose : « accrocher tableau sans percer », « comment accrocher des tableaux sans percer » ; on considère, bien évidemment, que la personne recherche la même chose. Donc on aide l’algorithme à s’améliorer.
Je n’ai pas de contrat réel. À tout moment je peux m’arrêter de travailler, d’ailleurs sans les prévenir, chose que, bien évidemment, je ne ferai jamais, comme eux-mêmes peuvent stopper la collaboration quand ils le souhaitent, sans préavis.

Dorothée Barba : Voilà ! Un algorithme ça s’entraîne comme un grand sportif et Nathalie fait partie des entraîneurs, des coachs.
Cette crise sanitaire, Antonio Casilli, offre-t-elle une nouvelle occasion de constater que ça ne marche pas tout seul Google ?

Antonio Casilli : Oui, certainement, surtout si on regarde les chiffres annoncés par les plateformes qui s’occupent de réaliser ce type d’entraînement. On voit d’abord qu’énormément de personnes s’inscrivent sur ces plateformes et souhaitent travailler, souhaitent devenir coachs d’algorithmes.

Dorothée Barba : Dans ces conditions de rémunération assez problématiques, soit dit en passant.

Antonio Casilli : Assez problématiques, ça c’est clair. Effectivement il y a par exemple une de ces plateformes, l’une des plus importantes au monde qui s’appelle Appen3, peu connue du grand public, qui a eu un bond de 31 % de ses effectifs. 31 % veut dire que, évidemment, il y a 31 % de personnes en plus, davantage de personnes qui veulent travailler, mais en même temps ces personnes, parce qu’elles sont en concurrence entre elles, déterminent une baisse des rémunérations. Il ne s’agit pas de salariés, il faut les envisager, grosso modo, comme des free-lance qui sont en compétition sur les mêmes tâches. Par ailleurs ce sont des micro-tâches, des tâches très petites : regarder une page, écouter une petite conversation, un extrait de conversation et ainsi de suite. En plus, on remarque que depuis l’arrivée du virus, on a eu une réorientation de ces grandes plateformes sur, figurez-vous, des applications de santé publique. On voit que le secteur qui auparavant était celui qui attirait davantage de microtravailleurs, de ces coachs d’algorithmes, qui auparavant était le secteur automobile a été désormais remplacé par le secteur santé.

Dorothée Barba : Un mot sur StopCovid. Antonio Casilli. Que pensez-vous de cette application censée lutter contre la propagation du virus et qui rencontre, disons-le, un succès limité, pour ne pas dire un fiasco ?

Antonio Casilli : C’est une application qui, tout d’abord, fait partie de toute une galaxie de tentatives de solutions technologiques ou plutôt d’outils technologiques pour lutter contre le covid. Dans d’autres pays on a eu, par exemple, des applications qui cherchaient à réguler la quarantaine, donc qui vérifiaient que les gens respectaient bien la quarantaine, qui sont effectivement problématiques.

Dorothée Barba : En termes de libertés individuelles.

Antonio Casilli : En termes vraiment carrément de surveillance. Ce n’est pas le cas de la France, elle n’a pas mis en place ça. Dans d’autres cas on a eu des applications qui donnaient des informations de santé et là aussi StopCovid ne fait pas ça. StopCovid fait quelque chose de très précis c’est-à-dire ce qu’on appelle, dans le jargon, du contact tracing, c’est-à-dire du traçage de contacts, et donne des alertes. Autour de cela il y a eu une énorme controverse, une controverse technologique et politique à laquelle j’ai participé. J’ai fait partie des gens qui s’opposaient à la solution française pour des tas de raisons qui relevaient autant, effectivement, de certains risques pour la vie privée mais plus encore je considérais qu’il y avait un problème interne de discrimination possible parmi les gens qui l’adopteraient et les gens qui ne l’adopteraient pas.
Ce qui s’est passé par la suite c’est que, malgré cette grande controverse, le gouvernement a fait passer cette application un peu à marche forcée et la situation actuelle avec, ce que vous disiez, une adoption très limitée ; je pense que ça fait 3 % de la population française et à peine 20 cas détectés sur plusieurs mois d’application. Ce scénario, pour moi, est en même temps le meilleur et le pire possible. Le meilleur parce que d’un certain point de vue certains des risques et des menaces que nous avions identifiées, moi et d’autres, ne se sont pas réalisées à cause, effectivement, de cette faible adoption. Le pire possible est que, effectivement, nous nous retrouvons dépourvus d’une solution véritablement efficace. Je considère personnellement que la solution efficace est une solution qui est d’abord enracinée d'abord dans l’action humaine. Le contact tracing, c’est-à-dire le fait de tracer des contacts, était fait auparavant par des êtres humains et continue d’être fait par des êtres humains. On a aussi un problème en termes d’investissement et désinvestissement de fonds publics pour financer ce type de politique. Au niveau international, les applications comme StopCovid ont déterminé un désinvestissement fort sur des solutions qui seraient plus enracinées dans la santé publique et dans des êtres humains.

Dorothée Barba : Je me tourne à nouveau vers Bayonne où Laurence Devillers est en duplex depuis France Bleue Pays Basque. Vous travaillez beaucoup, Laurence Devillers, sur la reconnaissance des émotions par la voix. On s’imagine souvent que les émotions c’est ce qui nous distingue des machines, finalement pas tellement, et ça pose beaucoup de questions éthiques, Laurence Devillers.

Laurence Devillers : Oui, effectivement. Je m’intéresse à la reconnaissance des émotions que vous exprimez à travers la voix, la musique de la voix principalement. Il y a aussi des travaux sur les expressions du visage ou les gestes, mais ce ne sont évidemment pas les émotions réelles, ce ne sont que l’expressivité de la personne qu’on va chercher à détecter, si vous avez l’air content, pas content.
C’est plus complexe lorsqu’il s’agit en fait de l’inverse. C’est-à-dire que la machine singe l’humain, vous livre une expressivité émotionnelle et elle peut vous manipuler assez facilement avec cela. Ça fait penser au film Her, par exemple, où quelqu’un s’attache à une machine, tombe amoureux d’une machine.
Il y a effectivement des vrais sujets éthiques liés à l’isolement des gens. Ce sont des sujets porteurs industriellement et on le voit avec Alexa Amazon, Google Home, etc. qui essaient de développer, en fait, des systèmes pour les personnes vulnérables et isolées, qui seraient empathiques, aidants, etc.
Il est important de comprendre que pour la santé, pour des aspects de suivi par exemple de dépression, pour des pathologies comme les troubles bipolaires ou la maladie d'Alzheimer, on peut trouver un intérêt réel à avoir une machine qui comprenne, qui détecte quelques expressivités.
Maintenant le niveau réel, l’état de l’art de ces systèmes est très bas encore, on peut le dire.

Dorothée Barba : Très bas pour l’instant, on ne sait pas encore bien faire, c’est ce que vous dites.

Laurence Devillers : En général. il y a 30 % d’erreurs, ce qui est énorme. En fait les émotions, comme vous l’avez très bien dit, c’est propre à l’humain, c’est propre à son ressenti physique que n’a pas la machine. On voit bien qu’on en est très loin. Et ces systèmes qui font 30 % d’erreurs peuvent être utilisés malgré tout pour le recrutement ainsi que d’autres applications que je trouve assez peu éthiques.

Dorothée Barba : Justement le recrutement, un chapitre intéressant notamment à l’heure où le télétravail se généralise. Certaines entreprises françaises utilisent des logiciels qui examinent la voix du candidat ou de la candidate.

Laurence Devillers : Oui. J’ai découvert cela aussi. Ils ne vont pas forcément chercher les émotions mais la fluidité, le champ lexical, c’est-à-dire est-ce que vous avez des mots sophistiqués, est-ce que vous êtes capable d’avoir une pensée riche, une expression riche ? Et puis dans la musique de la voix : est-ce que vous êtes à l’aise, extraverti. C’est terriblement discriminant : si votre enfant, par exemple, a un cheveu sur la langue ou si vous est d’origine étrangère avec un accent vous ne serez évidemment pas forcément dans les leaders.
On peut imaginer l’inverse, je crois que c’est possible de tricher avec ces machines, c’est-à-dire que si, par exemple, vous prononcez des mots extrêmement techniques à la suite, liés évidemment à l’emploi que vous cherchez et puis que vous avez l’air très sûr de vous, vous risquez de passer dans les premiers, voyez-vous ! Ce n’est pas pour cela que vous serez efficace pour le travail demandé.
Il y a ce biais terrible de passer par des machines alors qu’on cherche une richesse et une différenciation de profils. Même si ça facilite effectivement pour les recruteurs le tri des dossiers, je pense que c‘est vraiment à vérifier de très près. C’est un de ces sujets qu’on va regarder de très près pour vérifier le consentement. On nous dit qu’on demande le consentement des gens, mais vous voyez, quand vous cherchez un poste, vous dites bien sûr que je vais donner mes données. La transparence de ces systèmes : comment mesurent-ils et quelles caractéristiques vont-ils chercher ? Ce n’est pas du tout évident. Et puis est-ce qu’ils ont fait, par exemple, des essais sur le fait que quand je dis que je ne suis pas consentante est-ce que je peux quand même obtenir un job dans cette boîte ? C’est intéressant à savoir. Est-ce qu’on est vraiment libre de refuser d’utiliser ces systèmes ?
Il y a aussi un autre fait qui est important à dire, je pense, c’est la sous-représentation féminine, souvent. Comme on utilise des corpus de données venant des recrutements précédents, eh bien par exemple dans l’informatique on ne va se retrouver qu’avec des profils masculins en grande majorité, si on ne fait pas attention.

Dorothée Barba : Ça peut créer de la discrimination à l’embauche.

Laurence Devillers : J’ai toujours une petite phrase sur les femmes que j’aimerais bien vous dire quand même.

Dorothée Barba : Allez-y !

Laurence Devillers : Dans ce domaine de l’IA et du numérique en gros 80 % des codeurs et des personnes qui optimisent ces systèmes, qui mettent des modélisations de nos façons de parler et de nos façons de se comporter socialement sont des hommes. Et 80 % en fait des systèmes qui nous parlent – la parole est aussi le propre de l’humain, a une influence considérable sur les autres – eh bien ce sont des entités qu’on féminise avec des prénoms féminins – Sofia, Alexa – avec des figures féminines quand elles sont personnifiées, avec des corps féminins lorsqu’il s'agit de robots. Cela est assez dangereux si on regarde ça à un niveau macro dans la société. Que veut dire la représentation de la femme à travers ces machines si n’y prend pas garde ? Ce sont des assistantes assez bêtes pour l’instant, la sémantique est évidemment un des grands sujets de recherche très complexe, donc on peut les éteindre quand on veut.

Dorothée Barba : Intelligence artificielle pas tellement intelligente donc, pas tellement artificielle non plus et Alexa n’est pas une femme, voilà ce qu’on retient, Antonio Casilli.
Dernière question, très rapidement, sur la collecte des données. On a tendance parfois à penser que ça n’est pas si grave de livrer gratuitement ses données parce qu’on n‘a rien à cacher. Que répondez-vous à cela ?

Antonio Casilli : Que c’est discours décidément dangereux. Si quelqu’un vous dit « ne t’en fais pas, si tu n’as rien à cacher tu n’as rien à craindre ». Si c’est dans un film, c’est normalement le type de mot ou de phrase qui est dans la bouche de quelqu’un d’extrêmement dangereux, un tyran, un autocrate. Le problème est que peut-être qu’on n’a rien à craindre par rapport à aujourd’hui, mais on ne sait pas quels seront les usages futurs de ces données et surtout on ne sait quels sont les croisements, les appariements qu’on va faire avec ces données. Une donnée qui peut être anodine à nos yeux.

Dorothée Barba : Toute seule.

Antonio Casilli : Une seule donnée peut être croisée avec plusieurs autres données. Une donnée qui aujourd’hui n’est pas problématique peut le devenir si on est par exemple face à un changement de régime politique ou de standard de normes éthiques.

Dorothée Barba : La souveraineté numérique dans l’après-crise de Laurence Devillers est à lire aux Éditions de l’Observatoire ainsi que Des robots et des hommes, mythes, fantasmes et réalité chez Plon.
Quant au livre d’Antonio Casilli En attendant les robots c’est à lire au Seuil. Je recommande aussi cette série documentaire qui est tirée de vos travaux, pédagogique et édifiante Invisibles est son titre. C’est à voir sur france.tv/slash/ et c’est gratuit.
Merci beaucoup à tous les deux.

Laurence Devillers : Merci.

Antonio Casilli : Merci.

Dorothée Barba : Bonne journée et à bientôt sur France Inter.

[Fin de l'émission, partie non transcrite]

Le coronavirus menace-t-il nos données de santé ? Le magazine du week-end

ven, 09/18/2020 - 08:44


Titre : Le coronavirus menace-t-il nos données de santé ?
Intervenant·e·s : Stéphanie Combes - Yoann Nabat - Jean-Paul Hamon - Julie Gacon
Lieu : Émission Le magazine du week-end - France Culture
Date : août 2020
Durée : 38 min 30 [première partie de l'émission]
Écouter ou télécharger le podcast
Site de présentation de l'émission
Licence de la transcription : Verbatim
Illustration : Covid-19 - Licence Creative Commons Attribution-ShareAlike 4.0 International
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Faut-il s'inquiéter des failles dans la protection de nos données de santé sur internet depuis le début de la crise sanitaire ?

Transcription

Julie Gacon : Bonjour. Ravie de vous retrouver pour Le magazine du week-end. Nous sommes ensemble jusqu’à 13 heures 50 pour discuter de l’actualité ici dans le monde avec nos invités. Bienvenue à tous.

Faut-il attiser ce qui semble être les derniers feux de l’industrie pétrolière ? Alors que les géants du secteur ont perdu des dizaines de milliards de dollars pendant et après la crise sanitaire, il y a ceux qui veulent les aider à sortir de l’ornière, comme Donald Trump. Il y a aussi ceux qui veulent les encourager à en profiter pour rediriger leurs investissements vers les énergies renouvelables. Nous en parlons avec nos invités aux alentours de 13 heures 20.

Pour commencer, on les appelle justement le « pétrole du XXIe siècle », ce sont les données de santé. Et nul besoin de forer en haute mer pour les trouver, les données de santé sont partout. Des chiffres, des textes et des images, informations disparates de plus en plus réunies en de gigantesques bases auxquelles les logiciels d’intelligence artificielle tentent de donner du sens pour mieux connaître et in fine mieux soigner les pathologies.
Ainsi en va-t-il du gigantesque Health Data Hub, l’immense plateforme d’exploitation des données de santé créée en décembre dernier par le ministère de la Santé. Une plateforme qui a choisi le géant américain Microsoft pour héberger ces données et qui, pendant la crise sanitaire, s’est vu confier des prérogatives inédites : le droit de stocker de nouvelles catégories de données médicales, ceci au nom, comme on l’entend souvent, de « l’intérêt général et du bien commun ». Mais jusqu’où est-on prêt à céder ces données intimes ? Le coronavirus a-t-il fait sauter les digues de l’anonymat et de la prudence ?
Nous recevons trois invités pour en débattre dont la directrice de Health Data Hub. Bonjour Stéphanie Combes.

Stéphanie Combes : Bonjour.

Julie Gacon : Merci beaucoup d’être avec nous. C’est donc vous qui dirigez cette plateforme placée sous l’autorité du ministère de la Santé et qui doit centraliser des données de santé françaises à des fins de recherche.
Nous sommes également en ligne avec Jean-Paul Hamon. Bonjour.

Jean-Paul Hamon : Bonjour.

Julie Gacon : Vous êtes médecin généraliste et président d’honneur de la Fédération des médecins de France.
Et nous sommes en studio avec Yoann Nabat. Bonjour.

Yoann Nabat : Bonjour.

Julie Gacon : Vous êtes doctorant en droit pénal et sciences criminelles à l'université de Bordeaux, et vous avez publié en début de semaine un long article sur le site de The Conversation : « Fichiers sanitaires : un destin tracé vers la surveillance généralisée ? ».
Je dirige cette première question vers vous Stéphanie Combes. Vous avez, en plein crise sanitaire, bénéficié d’un arrêté gouvernemental qui élargissait les prérogatives de la plateforme que vous dirigez, le Health Data Hub1, pour mener des projets de recherche contre le coronavirus. Quel usage en avez-vous fait d’ores et déjà au mois d’août ?

Stéphanie Combes : Merci beaucoup de m’avoir invitée. Effectivement, la plateforme des données de santé a été créée, peut-être pour le rappeler, par la loi organisation et transformation du système de santé du 24 juillet 2019 et elle a vocation, en fait, à permettre des projets d’analyse de données de santé innovants visant l’intérêt général.
Suite à cette loi, un décret d’application, prévu pour la fin du mois d’octobre, doit être pris, et cet arrêté gouvernemental auquel vous faites référence a simplement permis d’accélérer, finalement, la mise en place de cette structure et de ses activités, mais qui étaient bien celles qui étaient prévues initialement, c’est-à-dire permettre la réalisation de tous ces projets de recherche.

Julie Gacon : C’est quand même un arrêté qui vous donne le droit de stocker de nouvelles catégories de données médicales. Lesquelles ?

Stéphanie Combes : C’est un arrêté qui nous permet de stocker des données relatives à l’épidémie, mais qui sont bien comprises dans ce qu’on appelle le Système national des données de santé qui recouvre, finalement, l’ensemble des données de santé reliées à un remboursement de l’assurance maladie, tel que prévu par la loi de juillet 2019.
Ça nous a permis d’accélérer un petit peu notre feuille de route initiale, mais ça n’élargit pas réellement les prérogatives de la plateforme telles qu’elles avaient été imaginées. Ce que nous appelons l’« entrepôt covid », c’est-à-dire la réunion de ces bases relatives à l’épidémie, a bien vocation à faire partie du catalogue beaucoup plus large de la plateforme des données de santé qui lui sera mis en œuvre plutôt en fin d’année.

Julie Gacon : En quelques mots, quels projets avez-vous pu lancer à la faveur de cet arrêté dont on comprend, c’est ce que vous nous dites Stéphanie Combes, qu’il n’a pas non plus créé de nouvelles prérogatives pour cette plateforme ?

Stéphanie Combes : Exactement. Grâce à cet arrêté on a pu réunir des premières données. Les premières données c’était celles des passages aux urgences de Santé publique France qui ont pu être mises à disposition dès la fin du mois d’avril aux équipes du ministère de la Santé pour étudier, notamment, le non-recours aux soins au niveau des urgences pendant la période du confinement. On a, à l’heure actuelle, une dizaine de projets qui sont en cours d’instruction auprès de la CNIL [Commission nationale de l'informatique et des libertés] pour pouvoir étudier différentes facettes de l’épidémie, que ce soit mieux comprendre les profils à risque, décortiquer les parcours de soin ou développer des outils d’aide au diagnostic des malades covid graves, etc. Il faut bien comprendre que cet arrêté nous a permis de recueillir et d’héberger des données pour les mettre à disposition des porteurs de projets, mais que ces porteurs de projets eux, doivent être pleinement autorisés pour pouvoir traiter les données sur la plateforme technologique du Health Data Hub. Ça n’est pas du tout de l’open data, par exemple.

Julie Gacon : On y reviendra. L’arrêté gouvernemental a été attaqué par 14 associations, experts et médecins auprès du Conseil d’État lequel les a retoqués et on reviendra plus longuement sur leurs griefs.
Jean-Paul Hamon, est-ce que les médecins ont été obligés, de bonne ou mauvaise grâce d’ailleurs, de communiquer les données de santé dont ils disposaient et à qui ? C’est-à-dire est-ce que pendant la crise sanitaire vous avez eu cette mission, est-ce que cette mission-là a été renforcée ? Est-ce qu’on vous a demandé de coopérer davantage ?

Jean-Paul Hamon : On a coopéré volontiers avec la caisse d’assurance maladie notamment pour le fameux projet de tracing des patients déclarés positifs. De ce côté-là on n’a pas eu d’états d’âme parce qu’avec la caisse d’assurance maladie on a des relations depuis très longtemps, on sait qu’ils sont tenus au secret médical et on n’a jamais eu de viol de secret médical de la part de la caisse d’assurance maladie. Ce projet de tracing est arrivé tardivement parce qu’on a pensé un peu tard à l’utilité des médecins généralistes dans la gestion de cette crise. Oui, effectivement, on l’a fait avec la caisse d’assurance maladie et le service médical de l’assurance maladie a pris contact avec les patients qui avaient été en contact avec les personnes positives et on se rend compte que ce système-là est efficace, même s’il est largement perfectible.

Julie Gacon : Pour l’instant, il faut rappeler que le Système national des données de santé, qui existe déjà, est une base de données qui rassemble les données de l’assurance maladie, les données qu’on appelle de facturation, ce sont celles qui indiquent quel acte a été pratiqué, quel médicament a été prescrit, à quel tarif, enfin toutes les informations dont a besoin l’assurance maladie.
Yoann Nabat, qu’est-ce qui a été autorisé en plus au nom de la lutte contre l’épidémie qui ne l’était pas jusque-là ?

Yoann Nabat : En réalité ce sont deux traitements de données donc deux fichiers qui ont été mis en place par la loi prolongeant l’état d’urgence, la loi du 11 mai 2020. Ces deux fichiers qui ont été évoqués implicitement par monsieur Hamon : le fichier SI-DEP [Système d’information de dépistage] qui, en fait, contient toutes les données des tests PCR qui sont réalisés, à la fois les tests positifs bien sûr, mais aussi tous les tests négatifs ; les données restent dans le fichier.
Le deuxième traitement de données qui a été créé par cette loi c’est le fichier Contact Covid qui lui comprend les données à la fois du patient 0, c’est-à-dire de celui qui est allé voir son médecin en disant « à priori j’ai des symptômes et j’ai le coronavirus », qui a été déclaré positif, sur lequel on fait ensuite cette fameuse enquête de contact tracing pour essayer de récupérer tous les contacts des individus qu’il a pu croiser, qu’il connaissait donc qu’il est à même de donner.
C’est ce fichier qui est peut-être le plus problématique parce qu’il sera à disposition pas seulement de médecins, pas seulement de professionnels de santé, mais des brigades sanitaires, les fameuses brigades d’anges gardiens qui ont été mises en place, qui sont certes rattachées à la caisse primaire d’assurance maladie, donc ce sont tous des gens qui sont assermentés parce qu’ils travaillent à l’assurance maladie, mais qui, néanmoins, ne sont pas tous des professionnels de santé. Là aussi, où c’est simplement problématique, on nous a dit que ces fichiers ne contenaient que la positivé ou non au coronavirus et les données personnelles. C’est faux parce qu’on trouve dedans aussi par exemple la spécialité du médecin qui a prescrit le test, et la spécialité du médecin peut bien sûr traduire une pathologie que vous avez.

Julie Gacon : Si c’est un oncologue !

Yoann Nabat : Exactement. Si c’est un oncologue, on sait que vous avez un cancer.
C’est évidemment problématique. Il contient aussi le statut du patient, s’il est hospitalisé ou non, les lieux que le patient aurait fréquentés type maison de santé, etc., donc il contient beaucoup de données qui vont au-delà des données qu’on présente habituellement.

Julie Gacon : Stéphanie Combes, comment est-ce qu’on a pu collecter en trois mois des données fiables quand dans chaque CHU, chaque hôpital qui dispose d’un système d’information avec des équipes qui fournissent des données qu’on dit propres, on met déjà beaucoup de temps à le faire, avec des systèmes d’information souvent vieillissants, qui existent depuis 20 ans ? En gros, les informaticiens qui travaillent sur ces données dans les hôpitaux nous disent qu’entre le moment où elles sont collectées et le moment où elles sont récupérées pour être analysées il faut à peu près cinq ans.

Stéphanie Combes : C’est vrai. Dans tous les cas pendant la crise sanitaire on a vu quand même une effervescence des projets autour de la collecte des données et une accélération de leur remontée. Là on a évoqué SI-DEP qui est un système d’information qui a été mis en place par le ministère dans un temps extrêmement court, mais qui n’existait pas auparavant.
On a également le flux qu’on appelle Fast Track SNDS qui est finalement une version un petit peu plus rapide du SNDS [Système National des Données de Santé], qui va remonter les données de facturation hospitalière, le PMSI [Programme de médicalisation des systèmes d'information]; elles sont codées qui par les médecins DIM [Département d'information médicale], et qui remontent de manière plus rapide pour pouvoir donner une visibilité sur l’activité hospitalière, qui sont ensuite chaînées avec les données de consommation de soins de l’assurance maladie. Et ça c’est pareil, c’est d’ailleurs une partie de l’arrêté que vous avez évoqué qui a permis de mettre en place ce traitement ad hoc, donc une adaptation d’un traitement existant. Ce qu’il faut savoir c’est qu’effectivement, c’est ce que vous dites, si on fait remonter plus rapidement certaines données, ce sera parfois au prix de leur qualité, mais, dans un temps de crise, on a aussi besoin d’avoir des éléments factuels qui remontent à la vitesse de la décision.

Julie Gacon : Comment on fait pour ça ? Quand on parle de manque d’effectifs dans les hôpitaux ? On parle beaucoup des soignants mais les informaticiens ne sont pas en reste et, Jean-Paul Hamon, les canaux de transmission des données pour la médecine de ville ne sont pas très opérants aujourd’hui.

Jean-Paul Hamon : Si vous voulez parler du DMP [Dossier médical partagé] oui, effectivement, ce n’est pas opérant du tout, c’est quelque chose qui traîne depuis maintenant 2004, qui a dû coûter quelque chose comme 500 millions d’euros et actuellement les logiciels métiers, ceux qu’on utilise pour gérer les fichiers des patients dans nos cabinets, ne se connectent pas de façon ergonomique au DMP. Actuellement le DMP a une indexation aléatoire.

Julie Gacon : Le DMP, rappelez-nous.

Jean-Paul Hamon : Le Dossier médical partagé, qui avait été rebaptisé en 2004, le dossier mal parti et ça se confirme. Il n’y a aucune utilisation ergonomique et franchement c’est un sac dans lequel on enfourne des données qui sont inexploitables, car il y a une indexation qui est très mal fichue.

Julie Gacon : Est-ce que ça vous pose problème, Jean-Paul Hamon, ce que Yoann Nabat disait tout à l’heure, qu’aujourd’hui soit transmise la spécialité du médecin qui a ordonné un test de coronavirus ?

Jean-Paul Hamon : Oui. D’ailleurs c’est une révélation parce que, pour moi, il n’y avait que le médecin traitant qui pouvait transmettre la positivité du patient.

Julie Gacon : Apparemment non.

Jean-Paul Hamon : Je l’apprends et ça pose effectivement un problème.
Ceci étant, c’est la caisse d’assurance maladie qui gère et je dois dire qu’en 40 ans d’exercice le service médical de l’assurance maladie n’a jamais été mis en défaut pour trahison de secret médical. Donc j’ai une entière confiance dans la caisse d’assurance maladie dont tous les salariés sont assermentés.

Julie Gacon : Stéphanie Combes, pour que ce soit bien clair, que deviendront les données collectées par le Health Data Hub pendant la crise sanitaire ? C’est-à-dire que la CNIL fixe un cadre d’utilisation des données, notamment leur durée d’utilisation. Est-ce que ça veut dire qu’à un moment vous allez devoir les détruire ?

Stéphanie Combes : Justement on a ces bases qui sont relatives à l’épidémie, que nous appelons entrepôt covid, et on a ce qu’on appelle le catalogue, c’est la collection plus large des entrepôts, qui ne sont pas propres qu’à l’étude de la covid, qui va être copiée et partagée grâce à la plateforme technologique Health Data Hub. L’entrepôt covid a vocation à faire partie de cette collection plus générale de données puisque le texte prend fin au 30 octobre et que, d’ici là, le décret relatif au SDNS qui va permettre d’inscrire l’activité plus large du Health Data Hub dans la pratique sera pris justement pour sécuriser la conservation de ces données. Les travaux de recherche, les travaux épidémiologiques, qui vont permettre de mieux comprendre les parcours de soin, les profils à risque, l’efficacité des traitements, etc., eux ne peuvent pas se conduire en seulement quelques semaines, d’ailleurs, à l’heure actuelle, la plupart des projets sont en cours d’instruction par la CNIL, donc ils ne vont démarrer que dans les prochaines semaines. Donc on va avoir nécessairement besoin de les conserver sur des durées un peu plus longues, des durées qui sont plus proches de la recherche que celles du pilotage.

Julie Gacon : Yoann Nabat.

Yoann Nabat : C’est là où la CNIL montre un peu la précipitation du décret d’avril parce que effectivement, vous l’avez évoqué Stéphanie Combes, il faudra un nouveau décret pour permettre que les données actuellement collectées soient conservées après le 30 octobre. On aurait pu voir les choses de manière un peu plus réfléchie, si on avait pris le temps poser les faits comme le souhaitait la CNIL : le calendrier d’application du Health Data Hub était quand même normalement sur un temps un petit plus long. Là on récolte quand même des données en disant aux patients « on ne va les conserver que trois mois pour vous, six mois anonymisées » et finalement on apprend que non, elles vont rester plus longtemps sur Health Data Hub que c’était prévu au départ. D’un point de vue de consentement, même si on ne consent pas pour ça, mais du point de vue du patient ça me partait problématique.

Julie Gacon : La CNIL qui évoque plusieurs problèmes liés à cette plateforme, Health Data Hub, notamment la question de l’anonymat des données. D’ailleurs, Stéphanie Combes, on ne parle plus d’anonymat, on ne parle plus d’anonymisation mais de pseudonymisation des données. Ça veut dire quoi ?

Stéphanie Combes : Je voudrais revenir une demi-seconde sur le calendrier législatif qui est connu depuis le départ. Effectivement, cela peut porter à confusion qu’il y a ait plusieurs publications de textes, mais le décret SNDS a été prévu dès la publication de la loi en juillet 2019, ce n’est pas un nouveau texte, mais un texte qui était déjà en cours de rédaction, sur lequel il y avait déjà eu des échanges informels avec la CNIL depuis décembre 2019, mais qui a pris un peu de retard du fait des évènements de la crise qui ont beaucoup préoccupé tous les services du ministère et on le comprend bien.
Effectivement, nous on parle de pseudonymisation et pas d’anonymisation parce que l’anonymisation, pour qu’elle soit totale, nécessite d’agréger des données et finalement elle va permettre de faire des comptages qui sont assez génériques, par exemple des comptages de patients, des comptages d’actes, mais elle ne sera pas du tout pertinente pour faire de la recherche à un niveau fin, par exemple de la recherche médicale. On va chercher à mesurer l’efficacité d’une prise en charge, pour cela on va s’intéresser à toute la séquence des évènements médicaux pour un patient donné. Donc les chercheurs n’ont pas besoin de savoir qui est le patient, ils n’ont pas besoin de l’identité du patient, mais ils ont besoin de données qui soient à une granularité très fine, donc à l’échelle des patients. On va avoir des chroniques de parcours de soin pour chaque patient, mais on n’aura pas l’identité de ces patients-là. C’est ça qu’on appelle données pseudonymisées, on enlève les données qu’on appelle directement identifiantes comme le nom, prénom, numéro de sécurité sociale, etc., tout cela est supprimé.

Julie Gacon : Un informaticien de l’Assistance publique – Hôpitaux de Paris, l’AP-HP, m’expliquait par exemple qu’une base de données pseudonymisées, c’est comme une bibliothèque où pour chaque livre on aurait effacé le nom de l’auteur, tout le reste y est. C’est vrai qu’il suffit de connaître un peu Balzac pour reconnaître Balzac, etc. Il suffit de croiser un petit nombre de données pour identifier un patient. En tout cas, la pseudonymisation vous n’y croyez pas Yoann Nabat ?

Yoann Nabat : Ce n’est pas que j’y crois pas. En tout cas, il faut bien avoir conscience qu’une donnée pseudonymisée reste une donnée personnelle, sensible, là il s’agit de données de santé. Il y a plusieurs études qui ont montré que les données pseudonymisées pouvaient être ré-identifiées assez facilement avec quelques éléments seulement. Or là, pour le Health Data Hub, comme on mélange plein de bases de données, par définition on a beaucoup d’éléments sur chaque patient, donc il devient plus facile de ré-identifier. Donc il faut y faire attention à la pseudonymisation.

Julie Gacon : Et ça dépend aussi des « producteurs » de données entre guillemets, Jean-Paul Hamon, des médecins, c’est aussi à eux de faire attention, quand ils envoient un document, de donner le moins possible d’informations sur un patient ? Ou au contraire ça annule les effets bénéfiques d’une telle base de données ?

Jean-Paul Hamon : Je ne regrette pas d’avoir participé à cette émission parce que je suis en train de m’instruire. J’apprends que des médecins autres que les médecins traitants peuvent renseigner la positivité sur le covid. J’apprends que les données de santé qui sont récoltées à cette occasion vont être stockées et prolongées alors que vraiment je pensais ça ne servait qu’au suivi de l’épidémie.

Julie Gacon : C’est vrai que vous étiez assez enthousiaste sur le Health Data Hub, mais vous avez l’impression que vous n’étiez pas assez renseigné ?

Jean-Paul Hamon : Je suis modérément enthousiaste parce que je sais où ces données-là sont hébergés. Maintenant elles vont être hébergées chez Microsoft parce que le gouvernement s’est précipité alors qu’on aurait pu prendre le temps, une année ou deux, voire trois, pour vraiment avoir un stockage au moins européen sinon français.

Julie Gacon : Stéphanie Combes va vous répondre.

Jean-Paul Hamon : Pour au moins avoir des garanties et avoir la garantie sur le devenir de ces données parce que, effectivement, on sait que des données croisées, l’anonymisation est tout à fait relative et on peut retrouver ça.
Mais franchement les médecins sont très sensibilisés à cette histoire d’anonymisation des données et on est effectivement de plus en plus inquiets. Autant j’étais enthousiaste à l’idée de participer au ciblage de cette épidémie et à contenir l’épidémie en identifiant les cas contacts, autant je suis un peu inquiet sur ce que j’entends actuellement.

Julie Gacon : D’ailleurs est-ce que vous savez, Jean-Paul Hamon, on ne parle pas du tout de Microsoft ni du Health Data Hub, mais qu’il y a beaucoup de médecins, je crois, qui utilisent la boîte Gmail et déjà on est dans une problématique ? Quand un patient envoie un mail à un médecin, les données appartiennent quand même à l’entreprise américaine. C’est un livre ouvert. Toutes les grosses entreprises savent qu’elles ne doivent pas utiliser Gmail pour leurs informations sensibles. Est-ce que vous avez une boîte Gmail, Jean-Paul Hamon ?

Jean-Paul Hamon : J’ai une boîte Gmail, mais je ne l’utilise pas et je ne communique par mail avec mes patients que de façon totalement exceptionnelle. J’utilise personnellement une messagerie qui est totalement sécurisée qui s’appelle APICRYPT2, qui existe depuis 1998 et qui est totalement cryptée. Là-dessus on communique entre médecins et entre biologistes, radiologues, chirurgiens et médecins. Tout ça est intégré directement dans mon dossier patient et je ne communique aucune donnée avec mes patients, on se téléphone, mais on ne communique pas par mail.

Julie Gacon : Stéphanie Combes, Jean-Paul Hamon a évoqué la question de Microsoft. C’est vrai que c’est la question qui fait le plus débat dans la mise en place de cette plateforme Health Data Hub. Comment votre choix s’est porté sur ce géant américain pour l’hébergement des données ? Je rappelle, on ne parle là ni de la collecte ni du traitement mais de l’hébergement des données.

Stéphanie Combes : Je vais vous répondre immédiatement. Je voudrais juste rebondir, je suis désolée, sur la question de la pseudonymisation. Je pense qu’il est très important de faire cette distinction et de la vulgariser, mais il faut bien comprendre que tout le monde a conscience, dans le milieu du traitement de la donnée de santé, de cette distinction, c’est-à-dire que c’est précisément parce que les données sont pseudonymisées et qu’elles sont potentiellement ré-identifiables que le niveau de sécurité requis pour les traiter, la traçabilité, la double authentification, etc., est extrêmement élevé. Ce n’est pas une erreur de jugement entre anonymisation et pseudonymisation. On a conscience qu’on a besoin de données très granulaires pour mener à bien ces recherches et c’est pour cette raison que les conditions de sécurité qui sont mises en place sont très élevées et sont instruites de très près par l’ANSSI [Agence nationale de la sécurité des systèmes d'information], la CNIL, etc. Je reviens sur le choix de Microsoft.

Julie Gacon : Est-ce qu’il y avait urgence à décider d’un hébergeur selon Jean-Paul Hamon ?

Stéphanie Combes : Libre à chacun d’estimer si la recherche en santé est une priorité ou pas. À l’époque j’étais chef de projet au ministère de la Santé et on venait de rendre le rapport de la mission de préfiguration du Health Data Hub à la ministre, à l’époque Agnès Buzyn, mi-octobre 2018 et elle nous a confié la mise en place de cette plateforme, nous demandant d’avoir des premiers résultats pour la fin de l’année 2019 dans un contexte extrêmement concurrentiel sur l’intelligence artificielle et la santé. On voyait déjà, au printemps 2018, des premiers dispositifs médicaux intégrant de l’intelligence artificielle, certifiés, aux États-Unis, donc ça va extrêmement vite, dans des pays aussi où les échanges de données se font parfois de façon plus fluide. Dans ce contexte-là on a analysé les différentes offres technologiques qui existaient par rapport aux besoins du Health Data Hub. On parle évidemment, pour ces besoins, de traitements de données massifs, donc il nous faut des outils technologiques qui soient capables de passer à l’échelle mais aussi un très haut niveau de sécurité, donc une capacité à gérer de manière très fine les accès, les traces, etc., tous les composants. C’est au regard de ces exigences-là et aussi de l’enjeu de vitesse que nous avons considéré les différentes offres disponibles. On a rencontré une dizaine d’industriels en commençant évidemment par les gros industriels français.

Julie Gacon : Qui ne vous ont pas convaincus ?

Stéphanie Combes : Qui n’étaient pas capables de répondre en particulier aux exigences de sécurité. Suite à toutes ces rencontres-là il est apparu qu’il n’y avait que Microsoft, à l’époque, qui pouvait répondre aux besoins de fonctionnalité et de sécurité.
Ce qu’on avait quand même bien en tête c’est, de toute manière, de monter cette plateforme avec le niveau de sécurité exigé quel que soit l’hébergeur qui serait retenu, mais aussi une capacité à être ce qu’on appelle réversible, c’est-à-dire à pouvoir migrer l’infrastructure chez un autre hébergeur le moment venu. On fait des points très régulièrement avec la Direction interministérielle du numérique et la Direction générale d’entreprises pour suivre le dossier offre cloud souverain qui est un dossier très important pour l’État bien évidemment.

Julie Gacon : On sait aussi, Stéphanie Combes, que le cœur de métier, comme on dit, de ces sociétés, Microsoft en l’occurrence qui assure l’hébergement en masse des données, c’est aussi d’ajouter progressivement ce qu’on appelle des fonctions propriétaires pour empêcher que leurs clients puissent migrer facilement vers d’autres plateformes. C’est un groupe privé qui n’a pas intérêt à ce que ces données lui échappent. En quelques mots, elles sont stockées physiquement où ces données ?

Stéphanie Combes : Aujourd’hui les données sont dans des serveurs qui sont localisés aux Pays-Bas et elles seront très prochainement dans des serveurs localisés en France.

Julie Gacon : Microsoft étant Américain, Yoann Nabat, qu’est-ce qui garantit aujourd’hui qu’il ne va pas trouver opportun, à un moment, de transférer ces données vers les États-Unis, c’est une inquiétude que la CNIL a soulevée ?

Yoann Nabat : Oui, effectivement. Il n’y a pas grand-chose qui garantit que ça ne transite pas justement par les États-Unis. Il faut bien comprendre qu’il ne s’agit pas simplement d’un stockage, comme on appelle en informatique, froid, c’est-à-dire on stockerait les données de manière chiffrée, on ne les utiliserait pas, simplement on les récupérerait pour les utiliser. Ce n’est pas le cas. C’est ce que fait par exemple déjà l’Allemagne avec Amazon, elle stocke ses données sur Amazon, c’est un stockage à froid, donc il n’y a pas de difficultés puisque c’est chiffré, donc Amazon n’a jamais accès aux données déchiffrées.

Julie Gacon : Ça change quoi en l’occurrence pour Microsoft ?

Yoann Nabat : Ce n’est pas le cas pour le Health Data Hub parce que les serveurs de Microsoft serviront aussi comme serveurs de calcul, comme puissance de calcul, donc les données vont forcément à un moment donné, c’est reconnu à la fois par la CNIL et par le Conseil d’État dans sa décision du 19 juin, transiter par les serveurs américains. Microsoft ne peut absolument pas garantir que les données vont rester et ne transiteront jamais par les États-Unis ?

Julie Gacon : Quel intérêt ? Je veux dire pourquoi les États-Unis s’intéresseraient aux données de santé françaises ? Pourquoi notamment la justice américaine s’intéresserait aux données de santé françaises puisque les opposants à la plateforme invoquent souvent le CLOUD Act3, cette loi américaine qui permet à la justice de réquisitionner des données hébergées partout dans le monde, très souvent pour les besoins d’une enquête criminelle ? À priori, on ne voit pas pourquoi ça les intéresserait d’aller chercher nos données de santé.

Yoann Nabat : Oui effectivement, vous avez raison, c’est d’ailleurs l’argument qu’a retenu le Conseil d’État, il n’a pas censuré sur le fait qu’il n’y aurait à priori pas de circonstances qui feraient que concrètement des données, surtout pseudonymisées, pourraient permettre aux États-Unis, aux gouverneurs américains, aux agences fédérales, d’avoir accès aux données de santé de Français. Ce n’est pas vraiment ça qui est problématique à mon sens, ce n’est pas vraiment l’histoire du Pricacy Shield, du CLOUD Act et la possibilité pour les agences américaines d’y accéder, c’est plutôt le fait que les États-Unis en eux-mêmes ne sont pas un territoire, et c’est reconnu par la jurisprudence à la fois de la CNIL et de l’équivalent américain de la CNIL.

Julie Gacon : Le Contrôleur européen de la protection des données qui a rendu un rapport il y a quelques jours.

Yoann Nabat : Tout à fait. Et justement à l’occasion d’une décision4 que la CJUE, la Cour de justice de l’Union européenne, a rendu au mois de juillet, il a précisé qu’on ne pouvait pas considérer les États-Unis comme un territoire sûr en matière de données personnelles. Que plus que le CLOUD Act, les services de renseignement américains notamment pouvaient accéder de manière très large aux données qui étaient contenues par des entreprises américaines. Donc le fait de stocker des données aux États-Unis était lui-même problématique. Ça c’est reconnu à la fois par Le Conseil d’État, par la CJUE et par la CNIL.

Julie Gacon : Stéphanie Combes, quels gardes-fous vous mettez ?

Stéphanie Combes : Les données ne sont pas du tout stockées aux États-Unis. Et si on lit très précisément l’ordonnance du Conseil d’État5 et les avis de la CNIL ça n’est pas du tout ce qu'ils disent. Ce qui est dit c’est que quand une activité de maintenance ou d’administration qui serait faite par un employé de Microsoft se fait à distance sur des serveurs quand bien même aux Pays-Bas depuis les États-Unis c’est considéré comme un transfert le fait de pouvoir visionner des données.
Après, ce qu’il faut bien comprendre, c’est que les données qui peuvent être accessibles dans le cas d’une activité de maintenance ne sont pas des données de santé, ça va être des données techniques, des logs, des choses comme ça. C’est par rapport à ces données-là qu’il y a un « risque », entre guillemets, en tout cas une possibilité dans des configurations extrêmement rares, par exemple une catastrophe, d’accéder à ces données-là.

Yoann Nabat : Excusez-moi, ce ne sont pas des configurations extrêmement rares. Ce qui est pointé c’est davantage le fait qu’on ne peut pas traiter aujourd’hui des données en elles-mêmes qui sont chiffrées. Le chiffrement c’est très bien pour le stockage, mais quand on analyse les données elles sont déchiffrées, on ne peut pas utiliser et traiter des données qui restent chiffrées.

Julie Gacon : Quand vous dites traitement c’est l’étape d’après, c’est-à-dire quand on doit ensuite les croiser ?

Yoann Nabat : Faire du calcul.

Stéphanie Combes : J’étais en train de parler des transferts de données que vous évoquiez, après on peut parler du déchiffrement.
Quand des administrateurs doivent accéder à des données clients pour une opération de maintenance, dans les conditions qui ont été définies avec le client, donc nous, en l’occurrence, on a un service qui s’appelle la Log Box qui nous permet de consentir ou non à un accès à des données clients, donc les nôtres. Ce ne sont pas des données de santé auxquelles il y a aura un accès qui pourrait être rendu effectif. Effectivement, il y a quand même des discussions avec la CNIL parce que les logs ce sont aussi des données personnelles, sur les clauses contractuelles types qu’il y a dans nos contrats et l’impact de la décision de la Cour de justice de l’Union européenne, mais on n’est pas sur des transferts de données de santé aux États-Unis et ce n’est absolument pas ce qui est marqué ni dans l’avis de la CNIL ni dans l’ordonnance du Conseil d’État. Il faut quand même faire très attention à ce qui est dit.

Julie Gacon : Je vous laisse réagir Yoann Nabat en essayant de ne pas être trop technique, ce n’est pas toujours très facile à suivre et puis je ferai réagir Jean-Paul Hamon.

Yoann Nabat : Juste en deux mots, je me suis peut-être mal exprimé en parlant de transfert. Les serveurs de Microsoft ne vont pas être utilisés simplement pour stocker mais pour faire du calcul, pour faire de l’utilisation et du traitement de ces données et ce traitement des données se fait nécessairement sur des données déchiffrées. Microsoft ne pourra pas garantir que lors du traitement des données, lorsqu’on utilise les serveurs pour leur puissance de calcul, ce soit uniquement des serveurs situés en Europe qui feront ce travail de calcul. On peut parfaitement imaginer que ce seront des serveurs situés aux États-Unis qui le feront. C’est simplement ça que je disais.

Julie Gacon : Vraiment quelques mots s’il vous plaît.

Stéphanie Combes : Je suis désolée. Les services sont associés à des localisations géographiques très précises et l’ensemble des services auxquels nous avons souscrits, y compris les services de calcul, sont situés en Union européenne.

Julie Gacon : Ce qui pose aussi question Stéphanie Combes, au-delà de Microsoft, c’est le fait que ces données soient désormais centralisées, c’est une question technique puisque s’opposent en la matière deux méthodes différentes, la centralisation et l’interopérabilité des bases de données. Ce qu’on reproche au fait que ces données soient vraiment ultra-centralisées aujourd’hui par Microsoft ce sont les risques accrus de piratage. Vous disiez tout à l’heure, Jean-Paul Hamon, la confiance que vous avez dans l’assurance maladie qui n’a jamais trahi le secret médical, qui n’a jamais trahi les données de santé, mais il y a aussi la question du piratage. Je ne sais pas si certains de vos collègues en ont été victimes, mais des hôpitaux le sont régulièrement.

Jean-Paul Hamon : Il n’y a même pas besoin de piratage. Ce qui m’épate un peu c’est de voir le laxisme du gouvernement dans l’autorisation de l’utilisation des données de santé. Je pense notamment à Doctolib où, effectivement, c’est très commode : vous prenez rendez-vous, vous donnez votre portable, vous donnez votre mail, on sait quel médecin vous consultez, on sait à quel rythme vous consultez ce médecin. Bien souvent, quand vous consultez un spécialiste, je prends l’exemple du gynécologue, quand vous prenez rendez-vous vous devez dire si c’est pour une contraception, si c’est pour un frottis, si c’est pour un cancer, ou si c’est pour une chirurgie. Vous imaginez que ces données-là sont quand même extrêmement sensibles. Là on vient d’apprendre qu’en fait ils ont hébergé les données de santé pendant un moment sans être hébergeur de données de santé. Le gouvernement, que ce soit Mounir Mahjoubi puis Cédric O ont vraiment servi la soupe à Doctolib parce qu’ils pensent qu’ils détiennent une licorne, etc. On s’aperçoit maintenant que les données de santé sont hébergées chez Amazon. Tout ça, si vous voulez, est extrêmement inquiétant. Je comprends qu’on ait besoin de l’intelligence artificielle et d’avoir une base de données extrêmement importante. Personnellement je suis extrêmement inquiet et je pense qu’on aurait pu effectivement sécuriser davantage ce stockage de données ; on n’était pas à un an ou deux ans près. Et donner les moyens aux industriels français d’héberger ces données de santé qui sont effectivement d’une richesse et d’une exploitation au point que je doute fort que les données recueillies par Doctolib ne soient pas utilisées à des fins commerciales dans une autre vie ou même parallèlement. Je suis vraiment extrêmement inquiet.

Julie Gacon : Est-ce qu’on peut comparer ces deux choses ? Vous évoquez Doctolib, Jean-Paul Hamon, il y a eu une énorme enquête dans Télérama il y a quelques semaines avec notamment des anciens de Doctolib qui disent, par exemple, que la question n’est pas de savoir si une méga-fuite de données est possible mais quand elle aura lieu et d’évoquer, par exemple, une base une base de données des patients partagée sans mot de passe sur des clefs USB ou via le service d’envoi de fichiers de WeTransfer, mais on est dans un cas différent : Doctolib n’est pas autorisé à héberger des données de santé, ce qui n’est pas le cas de Microsoft. Pour qu’on comprenne bien aussi, Stéphanie Combes, ces données générées par les patients, les médecins et les hôpitaux qui intéressent-elles ? Qui, pour l’instant, a accès à ces millions de données ? Qui y aura accès à terme ?

Stéphanie Combes : Je ne peux vraiment pas m’exprimer pour Doctolib. S’agissant de Health Data Hub l’idée c’est vraiment la mise à disposition de données à des porteurs de projet. Les porteurs de projet doivent quand même suivre un circuit qui n’est pas jugé simple mais qui est justement là pour vérifier que les projets vérifient bien l’intérêt public, sont bien solides sur le plan scientifique. La CNIL va regarder attentivement si le périmètre des données concernées par le projet est bien le bon, c’est-à-dire que si on s’intéresse à une pathologie et qu'on ne demande pas accès à la base en entier.

Julie Gacon : Mais que des chercheurs ? Quand vous parlez de projets, ce ne sont que des chercheurs.

Stéphanie Combes : Ce sont des projets d’étude ou de recherche, après ça ne donne pas forcément lieu à un article académique de très haut rang, mais ça va permettre d’éclairer un certain nombre de sujets. Il y a un comité éthique et scientifique national qui va instruire les dossiers qui sont assez touffus. Après la CNIL, évidemment, va regarder si le respect de la vie privée est bien garanti et ensuite c’est le Health Data Hub en collaboration avec ces porteurs de projet qui va assurer le niveau de sécurité des traitements, la traçabilité totale de toutes les requêtes qui seront faites afin qu’on puisse auditer si les porteurs de projet ont effectivement réalisé les études qu’ils avaient annoncées dans leur dossier. Donc on est sur une configuration qui est quand même assez différente.
Les données sont centralisées pour pouvoir facilement permettre des extractions, des chaînages entre différentes sources, mais les porteurs de projet, eux, n’ont accès qu’au périmètre strictement requis pour leur projet et absolument pas aux données des voisins ou à l’ensemble des données de la plateforme.
Je reviens sur votre propos un peu plus tôt, ce n’est pas vraiment une opposition entre interopérabilité et centralisation, parce que même quand on centralise des données, on a besoin qu’elles soient interopérables pour pouvoir les chaîner et les enrichir mutuellement. C’est simplement qu’aujourd’hui les données sont réparties sur l’ensemble du pays, il y a des centaines et des centaines de bases qui sont dans des établissements hospitaliers, sur des ordinateurs locaux parfois, dans différentes structures, et on a besoin, si on veut avoir un levier de réutilisation de ces données et atteindre les masses critiques qui sont essentielles pour la robustesse des analyses, de les centraliser. C’est aussi une manière de montrer le niveau de sécurité de l’hébergement de toutes ces données de santé, puisque c’est extrêmement onéreux de monter une infrastructure sécurisée, d’avoir une équipe d’opérateurs pour la suivre – moi j’ai une équipe de personnes qui est payée pour s’assurer, suivre des indicateurs de sécurité, etc. Donc le Health Data Hub apporte aussi cette offre de service aux producteurs de données.

Julie Gacon : On arrive à la fin de cette émission. Yoann Nabat ce que vous écrivez dans ce long article6 que je citais tout à l’heure sur le site de The conversation c’est, dites-vous, que l’on peut faire une analogie entre les fichiers de données de santé et ceux qui concernent la sécurité et la justice, analogie dans les finalités de ces fichiers. Je voulais que vous nous le rappeliez parce que vous êtes doctorant en droit pénal et sciences criminelles. Vous ne travaillez pas, à l’origine, spécifiquement sur les fichiers de santé.

Yoann Nabat : Non. D’ailleurs l’analogie peut paraître un peu incongrue comme ça de prime abord, en réalité elle ne l’est pas.
Je vise davantage les fichiers qui ont été mis en place pour le coronavirus, SI-DEP et Contac Covid, plus que le Health Data Hub, avec l’idée qu’il y a vraiment des points de comparaison possible. Ce qui m’intéresse notamment c’est l’évolution des fichiers de police pour essayer d’imaginer l’évolution des fichiers de santé. On s’aperçoit que comme les fichiers SI-DEP et Contact Covid ont été défendus sur l’idée qu’il s’agissait uniquement du coronavirus pour des finalités précises bien délimitées, c’est la même chose en matière de fichiers de police. Lorsque le fichier des empreintes génétiques, le FNAEG, a été créé en 1998, il a été créé uniquement pour les crimes sexuels, ce qui est évidemment une finalité extrêmement précise et restreinte qui ne concernait que quelques centaines, au maximum, d’individus. Or d’année en année et en 20 ans il s’est énormément étendu, de loi en loi qui ont étendu son champ d’action, son périmètre, sa finalité, et aujourd’hui le FNAEG recueille les données génétiques de quasiment l’intégralité des auteurs de délits et de crimes dans des champs qui ne sont plus du tout ceux de la criminalité sexuelle. Là où je m’interroge c’est que ça a été fait au nom d’une finalité qui est un enjeu sanitaire et finalement l’enjeu sécuritaire n’est pas très loin.

Julie Gacon : Et toujours au nom de l’ordre public. Merci beaucoup.
Je rappelle quand même que StopCovid a été activé par 2 % de la population et qu’il y a seulement 350 000 personnes actives, ça fait 0,5 %. Cette application n’est pas un grand succès. Merci d’avoir rappelé ça, Yoann Nabat. On met en ligne votre article sur le site de France Culture.
Je vous remercie Stéphanie Combes d’avoir été avec nous, directrice du Health Data Hub, et je vous remercie Jean-Paul Hamon, médecin généraliste, président d’honneur de la Fédération des médecins de France. Merci à vous tous d’avoir été avec nous. Dans un instant la seconde partie du Magazine du week-end.

#74 – L’informatique c'est quoi – Musique libre – Partager est bon - « Libre à vous ! » diffusée mardi 15 septembre 2020 sur radio Cause Commune

mar, 09/15/2020 - 15:30

Au programme de l'émission : l'informatique c'est quoi (sujet principal) ; première chronique musicale d'Éric Fraudain ; chronique « Partager est bon » de Véronique Bonnet.

Émission Références Transcription --> Contact

Libre à vous !, l'émission pour comprendre et agir avec l'April, chaque mardi de 15 h 30 à 17 h sur la radio Cause Commune (93.1 FM en Île-de-France et sur Internet).

Au programme de la 74e émission :

  • Notre sujet principal porte sur le thème de l'informatique avec Sylvie Boldo, directrice de recherche à l'Inria, et Fabien Tarissan chargé de recherche en informatique au CNRS, auteur de l'ouvrage « Au cœur des réseaux. Des sciences aux citoyens » (Le Pommier, 2019)
  • la première chronique musicale d'Éric Fraudain du site Au Bout Du Fil
  • la chronique « Partager est bon » de Véronique Bonnet, professeur de philophie et présidente de l'April : présentation et commentaire du texte de Richard Stallman Mettre en application les critères du logiciel libre
  • diverses annonces
Réécouter en ligne

Votre navigateur ne supporte pas l'élément audio : écoutez l'émission (format OGG) ou format MP3.

podcast OGG et podcast MP3

-->

S'abonner au podcast

S'abonner à la lettre d'actus

Podcasts des différents sujets abordés

Les podcasts seront disponibles après la diffusion de l'émission (quelques jours après en général).

N'hésitez pas à nous faire des retours sur le contenu de nos émissions pour indiquer ce qui vous a plu mais aussi les points d'amélioration. Vous pouvez nous contacter par courriel, sur le webchat dédié à l'émission (mais nous n'y sommes pas forcément tout le temps) ou encore sur notre salon IRC (accès par webchat). Vous pouvez nous laisser un message sur le répondeur de la radio en appelant le 09 72 51 55 46

toc_collapse=0; Sommaire 
  1. Personnes participantes
  2. Galerie photos
  3. Références pour la partie sur l'informatique
  4. Références pour la chronique d'Éric Fraudain
  5. Références pour la chronique de Véronique Bonnet
  6. Références pour la partie sur les annonces diverses
  7. Pauses musicales
  8. Licences de diffusion, réutilisation
Personnes participantes

Les personnes qui ont participé à l'émission :

  • Frédéric Couchet, délégué général de l'April
  • Sylvie Boldo, directrice de recherche à l'Inria
  • Fabien Tarissan chargé de recherche en informatique au CNRS, auteur de l'ouvrage « Au cœur des réseaux. Des sciences aux citoyens » (Le Pommier, 2019)
  • Véronique Bonnet, professeur de philosophie et vice-présidente de l'April
  • Éric Fraudain du site Au Bout Du Fil
  • Étienne Gonnu, chargé de mission affaires publiques à l'April (à la régie)
Galerie photos

Vous pouvez voir quelques photos prises pendant l'émission.

--> Références pour la partie sur l'informatique Références pour la chronique d'Éric Fraudain Références pour la chronique de Véronique Bonnet Références pour la partie sur les annonces diverses Pauses musicales

Les références pour les pauses musicales :

Licences de diffusion, réutilisation

Les podcasts sont diffusés selon les termes d’au moins une des licences suivantes : licence Art libre version 1.3 ou ultérieure, licence Creative Commons By Sa version 2.0 ou ultérieure et licence GNU FDL version 1.3 ou ultérieure. Les musiques sont diffusées sous leur propre licence.

$( document ).ready(function() { var hash = document.location.hash; if (hash) { var tab = $(hash).parent('.tabcontent').attr('data-fromtab'); document.getElementById(tab).click() } });

Décryptualité du 14 septembre 2020 - Bilan des vacances !

mar, 09/15/2020 - 00:18

Écouter ou télécharger le Décryptualité du 14 septembre 2020 (12 minutes)

Rentrée tardive pour décryptualité, l'occasion de faire un petit bilan de ce qui s'est passé pendant l'été et de se demander si nous sommes condamnés à nous répéter encore et toujours.

Decryptualité sur Mastodon

 Syndiquer le contenu grâce à votre agrégateur de flux RSS

Revue de presse de l'April pour la semaine 37 de l'année 2020

lun, 09/14/2020 - 19:17

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Le Point] Alice Zeniter: «J'interroge les différentes possibilités de l'engagement»

Le samedi 12 septembre 2020.

ENTRETIEN. Avec son roman «Comme un empire dans un empire», Alice Zeniter interroge le dépassement des «passions tristes» et peut-être au fond, aussi, le sens du retrait et de l’absence de réponse définitive comme ultime refus.

[ZDNet France] Éducation nationale: voici pourquoi Microsoft est une drogue dure

✍ Louis Adam, le vendredi 11 septembre 2020.

L’Union des entreprises du logiciel libre et du numérique ouvert déplore l’ouverture d’un nouveau marché public par l'éducation nationale, qui vise à fournir des licences et services Microsoft aux employés du ministère. La conséquence d’une politique initiée depuis longtemps par les gouvernements successifs.

Et aussi: [ouest-france.fr] Voile. Arthur Le Vaillant: «On ne doit pas être des sportifs comme les autres»

Le jeudi 10 septembre 2020.

A 32 ans le skipper Rochelais a déjà un beau palmarès (2e de la transat Jacques Vabre en class 40 2017, 4e de la Route du Rhum 2018 en Class 40), mais pour lui qui est également musicien, la compétition n’est pas tout. Après sa victoire lors du Grand Prix de Brest Multi 50 dimanche dernier, celui qui passe beaucoup de temps dans la Baie de Morlaix est revenu pour Ouest-France sur ce qui l’anime en dehors de la compétition : l’impact environnemental de son sport. Entretien.

[ZDNet France] L'Inria veut faciliter l'accès aux technologies numériques open source

✍ Clarisse Treilles, le mardi 8 septembre 2020.

Inria Academy, c’est le nom du nouveau dispositif de formation continue pour aider les entreprises à utiliser certains logiciels open source.

Et aussi: [Le Monde Informatique] La Chine bannit Scratch, le langage d'apprentissage à la programmation

✍ Jacques Cheminat, le mardi 8 septembre 2020.

La guerre commerciale entre les Etats-Unis et la Chine fait une nouvelle victime: Scratch. Le langage d’apprentissage à la programmation développé par le MIT est interdit d’accès aux jeunes Chinois.

Réunion du groupe de travail Sensibilisation de l'April jeudi 17 septembre 2020 à 17 h 30 (accueil à 17 h 15) à distance

lun, 09/14/2020 - 17:48
Start: 17 Septembre 2020 - 17:15End: 17 Septembre 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 17 septembre 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à rédiger le descriptif des cases du plateau du Jeu du Gnou (pour le projet Jeu du Gnou, voir plus bas).

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Pages