--- title: "L'écriture numérique est collective" date: 2024-01-12 --- Résumé : En suivant les pensées de l'éditorialisation et de l'énonciation éditoriale, l'écriture numérique n'est plus le seul produit d'une fonction auctoriale, mais d'un ensemble de fonctions éditoriales dont la fonction auctoriale fait partie. Cet ensemble comprend à la fois des interventions humaines mais aussi des interventions réalisées par la machine, à travers une série de choix technologiques particuliers, que l'on peut englober sous le terme de chaîne éditoriale. Selon ce dispositif, et puisque notre hypothèse positionne l'intime en tant que produit de l'écriture, nous pouvons nous demander si l'ensemble des fonctions éditoriales ne participeraient-elles pas à produire l'intimité du chercheur et à transformer ainsi l'intimité en intimité collective ? [Note : il s'agit certainement de la problématique de toute la thèse, dans cette partie on peut se focaliser uniquement sur l'apport de la machine dans cette intimité (et les autres chapitres sur peer review entre autre et les mémoires)] Parmi toutes les fonctions éditoriales que l'on pourrait énumérer, nous allons nous concentrer sur la fonction écriture de l'architexte. Cet environnement peut être découpé en deux parties : les logiciels et les matériels. En fonction de la configuration choisie pour écrire, un auteur peut écrire d'une certaine manière et pas d'une autre. Yves Jeanneret et Emmanuël Souchier emploient la notion d'architexte pour expliquer la Pour montrer les particularités d'un environnement, une étude sur l'environnement d'écriture avec l'éditeur de texte sémantique Stylo ## L'écriture numérique ### La controverse sur l'écriture Définir l'écriture tient généralement de l'anthropologie ou des lettres, la controverse à ce sujet est très large. Christin en dresse la cartographie en distingant deux tendances principales : l'écriture selon les traces ou selon les signes. Dans un cas comme dans l'autre, ce qui défini finalement l'écriture est l'inscription dans la matière. ### Les particularités de l'écriture numérique Lorsqu'il s'agit de convoquer _l'écriture numérique_ nous pensons tout de suite à un ordinateur, aux claviers, aux écrans et au pointeur qui clignote dans un éditeur de texte ou dans le champ d'un formulaire en ligne. Avec le numérique ubiquitaire (Citton), ces pratiques d'écriture sont ancrées dans nos habitudes au point de ne plus les remettre en question (trouver la ref). Les dispositifs d'écriture analogique sont ainsi renvoyés à l'état de vestiges archaïques : par exemple, les machines à écrire, fabriquées méticuleusement par des ingénieurs et des designers et qui ont fait la fierté et la renommée de certaines entreprises comme Olivetti en Italie, sont complètement désuètes et inutilisées depuis une trentaine d'années. Elles sont aujourd'hui exposées dans des musées (entre autres au MoMA et au Centre Pompidou) et sont exhibées lors d'exposition en lien avec les designers qui les ont conçues^[C'est par exemple le cas de la machine à écrire _Valentine_ conçue en 1968 par un designer de renom, Ettore Sottsass, et devenue le produit emblématique de l'entreprise Olivetti. Cette machine a été mise sur le marché en 1969 et est par la suite devenue un objet iconique de la pop culture. Comme nous le verrons plus loin, les mêmes années aux États-Unis, le président Johnson déclare qu'à l'échelle fédérale, les ordinateurs doivent être compatible avec la norme ASCII.]. ![Machine à écrire portative](https://www.photo.rmn.fr/CorexDoc/RMN/Media/TR1/YECPH3/07-521403.jpg "Machine à écrire portative") Crédits : © Adagp, Paris. Crédit photographique : Georges Meguerditchian - Centre Pompidou, MNAM-CCI /Dist. RMN-GP. Réf. image : 4N40151. Diffusion image : [l'Agence Photo de la RMN](https://www.photo.rmn.fr/C.aspx?VP3=SearchResult&IID=2C6NU0CU7GAD) ![Publicité pour la machine à écrire Valentine](https://www.photo.rmn.fr/CorexDoc/RMN/Media/TR1/VYKH9X/13-519016.jpg "Publicité pour la machine à écrire Valentine") Crédits : © Adagp, Paris. Crédit photographique : Jean-Claude Planchet - Centre Pompidou, MNAM-CCI /Dist. RMN-GP. Réf. image : 4F40212 [2003 CX 6098]. Diffusion image : [l'Agence Photo de la RMN](https://www.photo.rmn.fr/C.aspx?VP3=SearchResult&IID=2C6NU0DWCD6W) Pourtant, les derniers modèles fabriqués par ces entreprises l'ont été dans les années 1980 ou 1990, comme c'est le cas de l'ETP 55 Portable^[Cette machine a été conçue par Mario Bellini pour Olivetti en 1987, site consulté le 21 février 2024 https://www.moma.org/collection/works/3641]) et intégre dès la fin des années 1970 un fonctionnement électronique. Les constructeurs ont opéré un changement de paradigme de l'analogique vers le numérique à ce moment-là et suivi les innovations technologiques informatiques. Pour preuve, en 1983, Perry A. King et Antonio Macchi Cassia réussissent à produire le premier ordinateur personnel d'Olivetti avec le M10 en adaptant un clavier à un écran à cristaux liquide. Cet ordinateur, équipé du processeur Intel 80C85 en 8-bits, pouvait également se connecter à tout un ensemble de périphériques comme des imprimantes. ![Photo d'un M10](https://upload.wikimedia.org/wikipedia/commons/thumb/0/0d/Sottsass05.JPG/120px-Sottsass05.JPG "Photo d'un M10") Crédits : Photo trouvée sur [Wikipédia](https://en.wikipedia.org/wiki/Olivetti_computers#/media/File:Sottsass05.JPG) le 22 février 2024. Il faut se rappeler qu'au début des années 1980 il n'est pas encore certain que l'ordinateur personnel (avec sa tour et son écran à tube cathodique) deviendra l'outil d'écriture par excellence. À cette époque, les machines à écrire ont encore quelques avantages sur les plans esthétique, financier et elles sont encore implantées à la fois dans les sphères professionnelles et personnelles. Matthew Kirschenbaum détaille dans son ouvrage (ref) la bataille entre les fournisseurs de logiciels de traitement de texte durant cette décennie pour obtenir en obtenir le monopole. Avant l'avènement des interfaces graphiques, la seule chose affichée à l'écran était un terminal et la navigation se faisait au moyen de commandes (rappeler les premiers logiciels). De plus, en dehors de logiciels plus complexe comme `TeX`, développé par Donald Knuth, il n'était pas aisé de gérer la mise en page des documents depuis des éditeurs de texte ou premiers traitements de texte. Ainsi, écrire sur un support connecté paraît aujourd'hui être une évidence alors qu'elle a demandé de lourds efforts à une époque où cette évidence était incertaine. L'écriture numérique est ainsi à distinguer de l'écriture dans un environnement numérique : un ordinateur, Internet, le Web, une calculatrice ou une machine à écrire. En tant qu'abstraction, l'écriture numérique est une représentation du monde donnée, dont la qualification à travers un medium permet de l'incarner physiquement mais pas de la circonscrire. Cette représentation numérique du monde n'est pas nouvelle et ce n'est pas l'ordinateur qui l'a apporté. À notre connaissance, son origine remonte aux prémices de l'écriture et des développements des systèmes monétaires, nous dit C. Herrenschmidt (2007). Dorénavant, lorsque nous ferons référence à l'écriture numérique nous parlerons d'une écriture numérique dans un environnement informatique. L'écriture numérique diffère d'une écriture plus traditionnelle (du monde de l'imprimerie) et se distingue notamment par deux caractéristiques que sont la calculabilité et la séparation du geste et de l'inscription. La première caractéristique est d'ordre computationnel : l'écriture devient calculable et peut donc faire l'objet d'instructions (Crozat, Bouchardon, Petit, Kembellec, Herrenschmidt, Vitali-Rosati, Kittler, Bachimont, Merzeau). Pour réaliser cette prouesse dans un environnement informatique, on procède a une équivalence où chaque signe que l'on peut y inscrire à son pendant unique sous forme de _bits_. Lorsque chaque caractère peut être identifié en tant que nombre, il devient possible d'implémenter ce modèle dans une machine et de lui demander, sous forme d'instructions, d'appliquer des calculs. L'exemple idéal pour illustrer cette caractéristique n'est rien de moins que la machine imaginée par Alan Turing, qu'il présente en 1936 dans son article "On Computable Numbers, with an Application to the Entscheidungsproblem" dans la section _Computing machines_. Il ne s'agit pas d'une machine physique mais d'un modèle théorique, une machine abstraite fondamentale pour les développements futurs de l'informatique. Cette machine est constituée de plusieurs éléments : - un ruban (_tape_) divisé en sections (appelés _squares_) dont chacune peut porter un symbole (0 ou 1 car cette machine est dans un système binaire). - un organe de lecture (_scan_) pour lire les symboles un à un (_scanned square and scanned symbol_) et d'écriture pour modifier un symbole ou en écrire une nouveau si la section est vide - une mémoire pour se rappeler des sections déjà scannées (_remember some of the symbols which it has "seen" (scanned) previously_) - des instructions pour se déplacer sur le ruban, soit une case vers la gauche soit une case vers la droite, lire et écrire (_scan and print_) ou modifier la case scannée et se redéplacer (ou s'arrêter). Théoriquement, le ruban sur lequel la machine exécute ses programmes est infini vers la gauche et vers la droite et cela afin de permettre l'exécution des instructions les plus complexes. La machine de Turing ne s'intéresse pas aux résultats des instructions, ni à leur signification. L'espace de la machine, aussi vaste soit-il, n'est composé que de séries de 0 et de 1 et de différents états, renvoyant à des instructions, permettant ainsi à la machine de modifier son propre espace. Le passage du signe à l'unité atomique et discrète qu'est le chiffre signifie un changement de représentation du monde (cf _worldview_ de K. Hayles) : le monde n'est alors plus signifié par des mots ou des concepts mais le devient par des chiffres. Comme McLuhan nous le rappelle dès 1964, les alphabets composés de lettres (contrairement à ceux composés de pictogrammes) sont asémantiques. Si toutefois les alphabets sont liés à une culture d'où ils émergent, l'abstraction nécessaire pour représenter le monde sous forme de chiffres détacherait _a priori_ cette vision de tout sens. En dehors de tout modèle mathématiques abstrait, et cela quel que soit le langage ou la base utilisée pour l'écrire, `3`, `trois`, `three`, `III`, `0011`, `zéro zéro un un`, un chiffre ne signifie pas grand chose s'il n'est pas associé à un système de valeurs particulier, par exemple le système métrique ou le système international (Herrenschmidt 2007, voir intro). En échange de cette perte de signification, l'écriture numérique y gagne cette particularité d'être calculable et mesurable. Dès lors, il devient possible de mesurer des distances ou des écarts entre des lettres, des mots ou des concepts, des données dans un environnement donné. [ajouter une note sur le propos de Luca Paltrienieri] Deuxième caractéristique, l'écriture numérique se distingue également des autres types d'écriture parce qu'il s'agit de la première écriture où le geste d'écrire ne correspond pas à l'action d'inscription du signe sur son support. Lorsqu'on appuie sur une touche du clavier, la lettre n'est pas inscrite à l'écran : on donne une instruction à la machine d'inscrire un signe dans le disque dur, puis de l'afficher à l'écran dans un logiciel particulier (Kittler, Souchier, etc). Pour comprendre un peu mieux cette particularité, nous pouvons observer le fonctionnement d'un ordinateur. ### Détails de l'action d'écriture dans l'ordinateur La représentation d'un ordinateur contemporain est un souvent associé à un couple matériel/logiciel (que l'on trouve fréquemment sous l'appellation anglaise _hardware_/_software_). La partie matérielle concerne tous les composants électroniques (carte mère, mémoires, périphériques, etc.), alors que la partie logicielle englobe tous les programmes permettant d'interagir avec la partie matérielle, comme le BIOS (_Basic Input Output System_), le système d'exploitation ou encore un logiciel de traitement de texte. Ce couple matériel/logiciel permet de ranger l'ordinateur dans une catégorie particulière de machines : les appareils programmables. La plupart de nos appareils du quotidien ne sont pas programmables : ils exécutent ce pour quoi ils sont conçus et ne font rien d'autre. Dans le cas d'un ordinateur (ou d'un téléphone intelligent) ou de tout autre appareil programmable, ces appareils sont conçus pour être manipulable comme on le souhaite et d'adapter le traitement des informations en conséquence : ils n'ont pas une fonction précise, au contraire ce sont des machines capable de répondre à plusieurs fonctions. C'est là que les logiciels interviennent : ils permettent un usage déterminé d'un ordinateur en manipulant des informations de manière à exécuter une suite d'instructions données. #### Fonctionnement de la partie matérielle [De la machine en local (clavier, souris, écran, carte mère, RAM, alimentation, microprocesseur, etc.)] Pour fonctionner, un ordinateur n'a besoin que des éléments suivants : une alimentation, un processeur, une mémoire vive, des entrées et sorties et une carte mère auquel viennent s'ajouter un certains nombre de périphériques (écrans, souris, clavier, etc.), des extensions pour prendre en charge une partie des calculs (carte son, carte graphique) et des mémoires de stockage (disques durs) entre autres. Le processeur, ou microprocesseur pour les ordinateurs modernes, est le calculateur central de l'ordinateur, c'est cet élément qui manipule toutes les données à traiter. Chaque modèle de processeur à une architecture qui lui est propre, ce qui veut dire que chacun traite les informations **différemment** (même si le résultat obtenu est identique). Un processeur est un assemblage de multiples types de circuits dont l'élément le plus petit est le transistor. L'évolution des processeur a suivi la Loi Moore jusqu'au début des années 2020^[La première loi de Moore est relative à l'évolution des processeurs dans le temps et stipule que le nombre de transistors présent dans les processeurs doublera tous les ans pour un coût constant], date à partir de laquelle nous arrivons à la limite physique de la miniaturisation d'un transistor. Le premier processeur commercialisé, le processeur Intel 4004, l'a été en 1971^[Voir la page web correspondante sur le site d'Intel, consulté le 16 février 2024\ : https://www.intel.fr/content/www/fr/fr/history/museum-story-of-intel-4004.html]. Il s'agissait d'un processeur 4-bits comportant pas moins de 2300 transistors. Lors de la commercialisation de cet objet s'opère un changement radical dans la conception des ordinateurs puisque, dès lors, du fait de la miniaturisation de ce composant, les ordinateurs deviennent accessibles au grand public. En suivant la première loi de Moore, les microprocesseurs ont continué à évoluer jusqu'à atteindre le nombre de plusieurs milliards de transistors par processeur, démultipliant ainsi leur capacité de traitement des informations. Cette miniaturisation est rendue possible par la gravure des transistors dans des disque de silice (_wafer_) plutôt que l'usage plus couteux et instable de relais et tubes électroniques. Un transistor est un composant électronique dont le rôle est de laisser passer le courant ou non grâce aux propriétés du semi-conducteur à partir duquel il est fabriqué. En fonction de la valeur du courant qui lui est appliqué, le résultat associé à cette valeur sera `0` ou `1`. Ce transistor est l'élément physique qui incarne les portes logiques (ET, OU, OUI, NON, XOR, etc.) et traitent toutes les données. Parmi tous les traitements possibles, certains nécessitent de garder en mémoire des résultats intermédiaires, les données temporaires nécessaires aux traitements sont enregistrées dans la mémoire vive de l'ordinateur. Ce stockage intermédiaire mène à la question de la mémoire : on en retrouve plusieurs types blablabla (RAM et ROM). Le principe de fonctionnement des mémoires vives (RAM) est le même que pour les processeurs : ce sont des mémoires construites sur la base de transistors et/ou portes logiques. Ces informations traitées, transformées et mémorisées proviennent de ce que l'on nomme des _entrées_ : ce sont elles qui encodent les informations en chiffres. Une fois traitées, ou lorsque l'on souhaite s'en servir, ces données passent par des _sorties_. Les sorties font le travail inverse des entrées et décodent les chiffres en signes interprétables. #### Le codage de l'information L'encodage et le décodage des caractères accompagne toute l'histoire de l'informatique (et du numérique). Au prémices de l'informatique, chaque matériel comportait ses propres programmes et tables d'encodage, rendant ainsi possible la transposition des données d'un matériel à un autre. Cependant, dans la plupart des cas, les données ne pouvaient pas circuler entre les différents modèles d'ordinateur, ou alors au moyen de transformations fastidieuses, rendant ainsi les traitements réalisés sur les données enfermés dans des silos. La norme ASCII (_American Standard Code for Information Interchange_) fait sont apparition dans les années 1960 pour résoudre les enjeux liés à l'encodage des données. Soumise à l'_American Standards Association_ (d'abord ASA puis ANSI) en 1961 par l'un de ses inventeurs, Bob Bemer, puis approuvée en 1963, l'ASCII permet d'encoder 128 caractères sur 7 bits. Néanmoins, ce n'est pas parce qu'un encodage est reconnue en tant que norme que son usage est effectif à l'instant même de la reconnaissance. Il faut attendre 1968 que le président des États-Unis Johnson demande à ce que l'ASCII devienne la norme fédérale d'encodage des informations afin de réduire les incompatibilités au sein des réseaux de télécommunications pour qu'elle commence à se répandre. Dès 1969, tous les ordinateurs achetés par le gouvernement des États-Unis étaient compatibles avec la norme ASCII. Du côté des ordinateurs personnels, il faudra attendre le début des années 1980 pour que cette norme se répande grâce, entre autre, à son implémentation dans les ordinateurs construits par IBM. La norme X3.4:1986 en vigueur aujourd'hui, a été déposée auprès de l'ANSI en 1986. C'est à partir de cette norme que d'autres ont été développées et sont compatibles ASCII, comme c'est par exemple le cas pour la norme Unicode, publiée en 1991, qui est la plus répandue de nos jours, car c'est elle qui encode le plus de caractères. Si ASCII en contient 128 points de code, le standard Unicode permet d'en encoder plus de 149 000 sur une vingtaine de bits par point de code dans sa version 15.1 (de 2023). Afin de préserver cette compatiblité entre les normes, il est d'usage d'encoder les 128 premiers caractères de façon identique à ASCII. #### Fonctionnement du software (les différentes piles) Bios, OS, Logiciels, réseaux (protocoles HTTP, TCP/IP, IMAP, POP, REST, GrapHQL), communication entre les différentes couches et fonctionnement de l'inscription dans le disque dur (HDD et SSD). [Aux machines distantes (Serveurs, fibre optique, ADSL ... Histoire de l'Internet physique)] #### Conclusion [Si j'écris la chaine de caractère "Hello world" elle passe par (décrire les éléments) jusqu'à cet encodage dans le disque dur, voir si l'écriture avec une autre architecture propose un encodage différent] Ce que l'on remarque en regardant de près cette configuration de l'environnement d'écriture numérique est qu'il n'est pas possible d'écrire sur le disque dur sans un agent intermédiaire : le logiciel. ## L'architexte écrit dans le texte ### Définition de l'architexte Sans l'intervention du logiciel comme médiateur entre l'être humain et le support d'inscription de l'écriture numérique, il ne serait pas possible pour l'auteur d'écrire dans cet environnement. Si l'on considère l'écriture comme le geste d'inscrire une trace ou un signe dans un support, alors l'écriture numérique n'est plus un fait humain mais un acte réalisé par l'ordinateur lui-même. L'interaction entre un humain et une machine consiste en une série d'instructions que donne l'utilisateur à la machine qui, ensuite, les exécute. Le mécanisme sous-jacent à ce que l'on considère communément comme l'écriture numérique (frapper une touche du clavier et voir la lettre s'afficher à l'écran) s'avère plus complexe. Le moment de la frappe n'est plus le moment où le symbole est inscrit dans le disque dur, mais est le moment où une instruction est donnée à l'ordinateur qui ensuite se charge d'inscrire la lettre correspondante sur le disque dur (sous forme binaire). Si l'on se trouve dans le cas de figure de la saisie d'un texte dans un éditeur de texte, l'instruction suivante, selon les logiciels et les actions souhaitées, consiste à afficher le symbole encodé sur le disque dur à l'écran. Pour réaliser ces actions, Yves Jeanneret et Emmanuël Souchier partent de ce constat qu'il n'est pas possible d'écrire un texte sans qu'un autre texte soit déjà présent pour réaliser cette action. Ce texte particulier qui pré-existe toute activité numérique est nommé _architexte_ (refs x, x, 2019). L'architexte a d'abord été employé en littératures par Gérard Genette (ref) et désigne ...XXX. En 2019, dans l'ouvrage intitulé _Le numérique comme écriture_, Gustavo Gomez-Mejia, Étienne Candel et Emmanuël Souchier résument la notion d'architexte comme : > Initialement défini comme une « écriture d’écriture » puis comme un « dispositif d’écriture écrit », l’architexte s’avère être un point de passage obligé pour toute activité numérique. Il n’y a effectivement pas d’écriture à l’écran sans un architexte qui la rend possible, l’accompagne et la formate. Pour la première fois de son histoire, l’homme a donc recours à des « dispositifs d’écriture écrits » spécifiques pour pouvoir pratiquer une activité d’écriture (E. Souchier, 1998, 2013). Or, précisément en ce qu’ils sont « eux-mêmes écrits », les architextes « sont des textes lisibles et interprétables. Porteurs et prescripteurs d’une écriture à venir, ils anticipent de ce fait une figure de l’auteur » (É. Candel, G. Gomez Mejia, 2013) et relèvent donc de « l’énonciation éditoriale » (E. Souchier, 1998). Globalement, l'architexte incarne le cadre dans lequel les agents peuvent écrire. Il permet de faire la distinction entre ce que Marie Depret-Lonnet (ref) nomme gabarit, les espaces proposés par les éditeurs de logiciels ou applications pour écrire, et le texte saisi par l'utilisateur, c'est-à-dire le texte qui vient remplir le gabarit. Cet architexte, ce cadre, est régit par des règles qui définissent comment l'on peut écrire mais surtout comment les signes à inscrire doivent être formatés. #### Revue de la littérature mobilisant l'architexte Goody ### L'architexte n'est pas qu'une surface [Revenir sur Christin et sa critique de Goody] Nous l'avons vu, l'architexte se positionne en tant que médiateur entre un auteur et la machine qu'il emploie pour écrire. Jusqu'à présent, la définition de l'architexte englobe largement tous les écrits qui permettent d'écrire à l'écran. En 2019 G. Gomez-Mejia, E. Souchier et E. Candel précisent ce que sont ces méta-écritures et en dressent une typologie composée de quatre « cadres d'écrits d'écran » : - le matériel - le système - le logiciel - le document Le premier cadre, matériel, désigne toute la composante physique de l'ordinateur et surtout l'écran sur lequel est affiché le texte. Le cadre système, quant à lui, est associé à la couche permettant de générer un environnement d'écriture numérique, initialisé par le BIOS, un _firmware_ flashé dans la mémoire morte de la carte mère de l'ordinateur permettant de réaliser un certains nombre d'instructions lors de la mise sous tension comme par exemple le démarrage du système d'exploitation qui constitue le deuxième élément principal du système. Le cadre logiciel est relatif à l'ensemble des logiciels que l'on peut exécuter dans un système d'exploitation, par exemple un terminal, un navigateur ou un traitement de texte. Enfin, le dernier cadre est celui du document. Le document doit être compris comme un objet, ou une forme, déterminé et à l'intérieur duquel des éléments sémiotiques sont organisés et structurés (Pédauque (2006, 2007), Zacklad). Ces cadres sont un début de réponse au dépassement de l'écran. Néanmoins, plutôt que d'approfondir cette dimension invisible du texte, les auteurs reviennent sur la couche graphique en ajoutant qu'« à cet enchâssement de cadres, il faudrait encore ajouter ceux que composent, à l’intérieur même du document, les rubriques, encadrés, cartouches, « boîtes de dialogue » ou autres formes de cadres éditoriaux structurants pour le travail même du texte ». De plus, toujours selon les auteurs : > Le premier "cadre" [qui] définit les conditions de possibilités matérielles de l’activité, est le seul inanimé. Les trois suivants, cadres système, logiciel et document, relèvent de l’ingénierie textuelle et définissent les conditions de réalisation de l’activité. On voit ainsi qu’une activité d’écriture réalisée sur le « document » d’un logiciel de traitement de texte est mise en abyme au sein de l’ensemble des autres « cadres » qui la rendent possible et la déterminent techniquement et sémiotiquement. Ce premier cadre de « l'écrit d'écran » ne désigne, pour les auteurs, que l'écran. Or, il n'est pas nommé _cadre écran_ mais _cadre matériel_ et devrait renvoyer à toute la dimension physique d'un ordinateur et pas seulement à l'organe d'affichage qui, dans cette disposition, apparaît comme central dans le fonctionnement d'un ordinateur. Le fait de rendre la couche _hardware_ inanimée dans le production du texte écrit et de renvoyer cette production aux couches supérieures crée deux contradictions. La première contradiction efface la fonction éditoriale du _hardware_, considérée dès lors comme neutre ce qui, paradoxalement, irait à l'encontre de l'énonciation éditoriale (Jeanneret & Souchier) dont l'intérêt est l'observation des dynamiques de production de l'écriture. La deuxième contradiction repose dans la perception du fonctionnement d'un ordinateur. Si l'on pousse ce raisonnement du matériel inanimé, la machine ne pourrait pas inscrire le texte sur un disque dur. Or, nous avons vu que, _stricto sensus_, c'est bien la machine qui réalise l'action d'écrire/inscrire sur le support. En rendant cette couche inanimée, on y perd la caractéristique de co-écriture défendue par les auteurs auparavant. De plus, le renvoi à la surcouche graphique ajoute un masque supplémentaire à ce que nous essayons de voir en-dessous. Ce que nous pouvons en comprendre est que, finalement, la notion d'architexte telle qu'elle est construite par Souchier _et al_, est anthropocentrée et s'appuie sur des conventions de lecture (_lettrure_) humaines. Le dépassement de l'écran est un acte symbolique nécessaire pour se soustraire à une vision anthropocentrée telle qu'elle vient d'être proposée. Pour ce faire, revenons à l'écriture comme moyen de transmettre une information au sein d'un système donné. En l'astreignant à un système d'informations comprenant seulement des agents humains, il devient difficile d'inclure l'ordinateur comme un agent agissant de ce système. Ce système dispose d'un argument de taille (variable) pour nous conforter dans cette interprétation, l'écran, accompagné d'un objet virtuel qui n'existe que pour nous réconforter dans notre usage de l'ordinateur : la page. ### Dépassement de l'écran et de la page Le terme « page » revient de manière récurrente dans nos usages de l'ordinateur : on le retrouve dans les logiciels de traitement de texte (il y a même un logiciel du nom de _Pages_ disponible dans l'environnement Apple), dans les livres numériques ou encore dans le web où chaque URL est l'adresse d'une page. Matthew Kirschenbaum détaille notamment la relation de l'utilisateur à la page dans son ouvrage ... [Ajouter une note sur Kirschenbaum] Cet objet qu'est la page a été instauré dans l'ordinateur uniquement pour reproduire une « habitude » et créer un lien fictif entre les visions du monde de l'imprimerie et de l'informatique. Cet artefact produit une forme de réconfort auprès de l'utilisateur pour que le monde informatique lui semble plus tangible, qu'il ait quelque chose auquel se raccrocher, d'où sa déclinaison dans des espaces différents, comme le web, qui ne ressemble plus du tout à des pages au format lettre ou A4. La page affichée à l'écran n'existe qu'à cet endroit, il ne s'agit que d'un rendu graphique qui ne fait pas partie de l'écriture (au sens du texte saisi). Le pouvoir de la page sur l'utilisateur est considérable étant donnée la nature même de cet objet que l'on pourrait considérer comme l'un des seuls à être virtuel et presque sans matérialité du point de vue de l'informatique. Malgré tous les efforts effectués depuis son instauration à l'écran, la page affichée n'est jamais la page imprimée car aussi précis que soient les détails typographiques que l'on peut y ajuster, elle ne reflétera jamais le grain, l'épaisseur, l'odeur ou tout autre caractéristique physique du papier. La critique énoncée à l'endroit de la page ne doit pas être réduite à une apologie d'un mode sans page. Elle consiste plutôt à montrer qu'à vouloir préserver une habitude pour « ne pas effrayer » l'utilisateur, la page fait écran devant l'ordinateur, et cache la machine qui ne devient plus qu'un simple mécanisme au lieu d'être un agent de l'énonciation éditoriale. Cette peur de l'informatique relève essentiellement de l'angoisse de l'arrachement d'une valeur qui définie l'être humain et devienne une caractéristique d'une autre entité, ne permettant plus de définir l'humain en regard de ce que lui seul est capable de faire (Vitali-Rosati). Kittler, à ce propos, nous rappelle qu'historiquement les caractéristiques qui définissent l'être humain sont souvent le symbole du pouvoir et désigne plutôt les hommes alors qu'à l'instant même ou cette caractéristique est déchue de son statut de marqueur d'une puissance, ce sont les femmes qui en héritent et deviennent les expertes en ce domaine (Kittler ref). Il y aurait donc une peur de perdre non seulement une caractéristique de l'humanité mais surtout une caractéristique de la masculinité. Néanmoins, avant d'en arriver à cette émotion forte qu'est la peur et qui traduit la non capacité à définir l'être humain, nous pouvons nous appuyer sur la pensée de G. Anders et ressentir une forme de honte que l'écran camoufle. Interagir avec une machine demande une certaine rigueur : qu'il s'agisse de structurer un document ou de lui donner une série d'instructions (du code), une machine ne peut interpréter l'ambiguité ou l'implicite culturel. Cela veut dire qu'aucun échange humain-ordinateur ne peut reposer sur des conventions culturelles de lecture et que l'instruction donnée n'a, en elle-même, aucun sens. Dès lors, comment admettre que quelque chose qui n'a pas de sens puisse en générer ? La honte (prométhéenne) d'Anders est alors double : d'un côté il y a un mélange de fierté devant cette machine créée par l'être humain et de honte parce que l'individu isolé devant la machine sait que ce n'est pas lui qui l'a mise au point et, de l'autre, il y a cette honte à être face à un outil qui réalise une action mieux qu'on ne le ferait soi-même alors que cette dite machine n'a aucune conscience de ce qu'elle réalise. Le dépassement de l'écran est une proposition pour poser un autre regard non anthropocentré sur cette question de l'écriture numérique. Elle signifie qu'il ne s'agit plus de poser la question de l'auteur de l'écriture, en admettant que c'est bien la machine qui écrit, et de se demander comment cette nouvelle fonction (inter)agit entre les agents humains. Que se passe-t-il lorsque cet ordinateur devient un agent actif qui écrit et transmet des informations entre, d'une part, l'instructeur (la personne qui donne des instructions) et la ou les personnes qui lisent les productions écrites ? Dans cette configuration s'opère un changement radical de l'état de l'ordinateur. Cette machine passe de l'état de médiateur, de support de l'écriture, à celui d'entité agissante au sein d'un système. En s'appuyant sur Kittler et sa très célèbre provocation « Es gibt keine Software », traduit par « Le logiciel n'existe pas » ... Katherine Hayles s'inscrit sur les traces de Kittler et propose également une nouvelle perspective sur l'écriture (My mother was a computer et how we become posthuman + parole, écriture, code)... Il y aurait donc une action du côté de la machine... Le logiciel n'existe pas en tant qu'entité agissante. Ce n'est ni un agent qui écrit (ni un médiateur). C'est bien l'ordinateur qui écrit à travers les instructions qu'il reçoit (de l'utilisateur et de l'éditeur du logiciel de par son code). Ce qui se trouve entre l'ordinateur et l'auteur est du texte qui permet d'écrire à la machine d'écrire du texte. Dans sa conférence sur les logiciels, Kittler démontre que le logiciel est ramené au mpeme niveau que le reste des écritures par l'ordinateur, c'est-à-dire au niveau le plus bas (binaire). En ce sens, les écritures des logiciels ne servent qu'à camoufler le fonctionnement de la machine. Un autre particularité des logiciels que souligne Kittler est qu'un logiciel ne peut pas exister en dehors de son environnement numérique. L'intermédialité montréalaise peut aider à expliquer ce phénomène (citer ref) [expliquer intermédialité montréalaise] Pour aller plus loin dans cette réflexion, nous pouvons même abolir la notion de média au profit de celle de médiation en mobilisant le texte de Larrue et de Vitali-Rosati (Media does not exist)... Cette proposition de Larrue et Vitali-Rosati, qui s'inscrit directement dans la lignée des travaux de Kittler, permet de faire abstraction de l'objet même qu'est le média et de se concentrer sur l'interaction _entre_, la médiation. Finalement, ce n'est pas l'étude du support (physique) qui doit faire l'objet de l'étude mais la relation ou la dynamique, le _flux_, entre les différents agents d'où émerge la matérialité. Kittler fait la même proposition dans sa conférence _Le logiciel n'existe pas_. Revenir sur la matérialité (en tant que propriété émergente, citer Hayles) du texte qui est tout sauf affichée sur un écran : l'écran et surtout la surcouche graphique de mise en page est une illusion créée pour le lecteur humain : elle a son importance dès lors que le système d'informations prévoit des destinataires humains mais elle en perd lorsqu'il s'agit d'étudier les relations entre un ordinateur et un auteur. Or le principal lectorat des textes numériques sont les robots : les textes écrits sont écrits avec des machines et principalement pour les machines (c'est, par exemple, pour cela que le documentaliste déclare formellement les données)(citer Kembellec etc) La quest ### Ce que l'architexte inscrit dans le support #### WYSIWYM vs WYSIWYG Selon les formats d'écriture, et lorsqu'on sort du paradigme WYSIWYG pour celui du WYSIWYM, on s'émancipe de la surcouche graphique pour entrer directement dans la couche de la structuration des contenus. _What You See Is What You Get_, ou WYSIWYG, est l'acronyme généralement employé pour désigner les outils qui adoptent une surcouche graphique pour mettre en page le contenu directement, au risque de ne pas structurer de la façon souhaitée. Le paradigme opposé, _What You See Is What You Mean_, distingue la mise en page (graphique) du texte de sa structuration. Les formats employées sont généralement en texte brut et permettent souvent de baliser le contenu pour définir la nature des éléments à décrire. C'est le cas par exemple de tous les langages de balisages tels HTML ou XML mais également les langages de balisage léger tels Markdown, AsciiDoc, reStrucredText,... Arrivé à ce niveau, l'agent humain ne dépend plus d'un logiciel particulier pour saisir son texte mais peut faire le choix de l'environnement dans lequel il veut travailler puisque le texte saisi l'est dans un format brut ce qui, a priori, est réalisable dans tous les environnements de saisi. Écrire en texte brut signifie également ouvrir les possibilités de structuration du texte même : ce n'est plus Microsoft Word ou LibreOffice qui décident de quelle manière sont structurées les informations mais le choix d'un format ou d'une saveur particulière d'un format. L'encodage d'un texte en XML illustre bien ce propos. XML pour eXtensible Markup Language; est également un métalangage de balisage et de modélisation du texte. Plus souple que le HTML dont les balises sont figées, XML permet à chaque utilisateur de créer son propre système hiérarchique arborescent par l’élaboration de balises personnalisées. Postérieur d’une décennie au HTML, la publication des recommandations de la première version (1.0) du métalangage XML voit le jour en 1998. La description rigoureuse permise grâce à cette technologie en fait un outil utilisé à plusieurs fins notamment l’élaboration d’éditions critiques de certains textes, qu’ils soient anciens ou nativement numériques ou encore la description formelle de jeux de données (jusqu’à la création de bases de données). XML peut être associé à un autre langage, le XSL (eXtensible Stylesheet Language), qui décrit comment doit être transformé le XML. XML est un langage supporté par les navigateurs web et est facilement transformable en HTML et compatible avec le CSS. Que l'on soit sous système d'exploitation Linux, MacOS ou Windows, le XML peut être saisi et lu dans tous les éditeurs de texte. De plus, le XML a cette particularité de ne pas imposer de règles particulières en dehors de la déclaration de la structure des informations avec des balises ouvrantes et fermantes. Chacun est en capacité de créer ses propres règles de structuration des contenus en XML en créant un schéma (ensemble de régles qui déterminent les agencements des différentes balises entre elles) qui correspond aux besoins de l'écriture. Par exemple, lors de l'édition d'un article scientifique, comment pouvons-nous définir un auteur ? Si l'on écrit la chaîne de caractère "René Dupont" en bas du texte, nous pouvons par convention de lecture deviner que "René" est le prénom de l'auteur et "Dupont" son nom. Or, pour l'ordinateur, cette chaîne de caractère n'est rien d'autre qu'une série de caractères qui n'a aucune valeur sémantique. Si l'on saisit cette même chaîne de caractères en XML, on peut commencer par y ajouter une balise `René Dupont` pour signifier explicitement qu'il s'agit de l'auteur du texte. Toutefois, il est possible de préciser encore plus cette notion d'auteur, en y ajoutant par exemple des balises `` et ``. La description de ce qu'est un auteur, pour l'écriture de cet article, devient formelle et explicite. Cependant, pour l'écriture savante, est-ce qu'un auteur est seulement un nom et un prénom ? En fonction des contextes de publication, il est possible qu'un autre agent, la revue, définisse également l'auteur avec d'autres informations telles que l'affiliation académique, une adresse courriel et un identifiant unique comme l'ORCID. L'auteur René Dupont prendrait alors la forme suivante : ```XML Dupont René rene.dupont@parisuniversite.fr Université de Paris XXXXXXX ``` Le format XML est un exemple très explicite. La sémantique du texte y est structurée selon deux dimensions, à la fois en termes de structuration verticale des informations mais aussi dans la saisie des noms des balises qui, en général, renvoient à des éléments lisibles et compréhensibles, ce qui n'est pas le cas de tous les formats. D'autres langages de balisage, notamment ceux dit légers comme le Markdown, l'AsciiDoc ou le reStructuredText, emploient des symboles tels que `=` ou `#` pour structurer les informations dans le document. Contrairement à ce que nous avons vu avec le XML, la signification des éléments structurants n'est pas forcément explicite pour une lecture humaine, même si on peut la deviner ou apprendre ce que la balise définit. #### Définir le format Le terme format est avant tout un terme technique, il délimite les caractéristiques d’un objet. Ces caractéristiques sont formulées par un certain nombres de données, d’instructions, ou de règles. L’objectif est de disposer d’un consensus pour dialoguer autour d’un objet ou de faire communiquer des processus qui traîtent ou qui produisent des formats. Le format est une contrainte technique dans des environnements qui peuvent être très divers : formats d’objets physiques comme le papier, formats informatiques que nous connaissons par l’extension des fichiers sur nos ordinateurs, ou formats littéraires concernant l’agencement des mots et des phrases. Nous nous concentrons ici sur les contraintes techniques et informatiques. En fonction des nécessités d’un système d’exploitation, d’un programme informatique ou d’une plateforme en ligne, il faudra utiliser tel ou tel format. Un format qui n’est pas standard (ces caractéristiques doivent être décrites), qui n’est pas ouvert (il est possible de comprendre comment le format fonctionne) ou qui nécessite un environnement très spécifique pour être lu ou transformé va générer beaucoup d’obstacles pour son utilisation. La contrainte du format est liée à d’autres contraintes comme la compatibilité (quel format peut être lu par quel programme ou logiciel ?), l’interopérabilité (est-ce que le format peut être utilisé de la même façon quel que soit l’environnement ?), la dépendance (de quoi un système a-t-il besoin pour traiter le format) et au libre/open-source (est-ce que le format peut être lu, modifié, partagé ?). Si le but du format est de constituer une série d’informations compréhensibles, utilisables et communicables, il reste une contrainte forte pour les chaînes de publication. Que ce soit en tant que format d’entrée, format pivot ou format de sortie, il déterminera le fonctionnement de la chaîne. Enfin, le choix d’un format se fait en fonction de deux paramètres essentiels : - le temps : est-ce que le format va devenir obsolète et ne sera plus reconnu par le ou les programmes de la forge ? - la communauté : y a-t-il d’autres personnes en mesure de comprendre le format et d’apporter de l’aide (cas d’usage, solutions techniques, etc.) ? ### Assujetissement à l'architexte et aux formats Il y a un rapport de force qui s'instaure entre l'éditeur de l'architexte et l'utilisateur. Dans le cas d'un logiciel de traitement de texte, lorsque, par exemple, Microsoft propose une modification de la police par défaut dans une version actualisée de son logiciel MSWord, Microsoft change également les manières d'écrire de tous les individus à travers le monde qui utilisent leur logiciel. Il en va de même pour Stylo, LibreOffice, Ghostwriter, etc. Si l'on s'arrête à la vision superficielle du texte, comme le propose Goody, on ne voit que les éléments graphiques mais nous oublions aussi ceux qui sont invisibles et disparaissent sous la page écranique. Certes les interfaces d'écriture sont présentées sous la forme de gabarit que l'on doit remplir, comme c'est par exemple le cas des logiciels de création de diapositives dont chacune est découpée en sections contenant tour à tour des images, des titres ou du texte. Nous avons affaire à une construction visuelle du document, dont la lecture repose sur des conventions culturelles de lecture. À ce sujet, Tufte a publié un article sur les PowerPoint ... Toutefois, l'assujetissement à l'architexte dépasse cette surcouche graphique et concerne également la sous-couches invisibles de structuration textuelle du texte, mais aussi tout le processus d'inscription du document sur son support et les méthodes pour y accéder. Comme nous l'avons précédemment, ce n'est pas l'image du texte affichée à l'écran qui est sauvegardée et archivée mais bien une suite de caractères binaires dont l'écriture intermédiaire est une suite de symboles, de chiffres et de lettres. Dans le cas de certains logiciels propriétaires, comme le logiciel Pages édité par la firme Apple, le document n'est lisible que dans un environnement spécifique et dédié au détriment d'autres environnements d'écriture et lecture. Un document dont le format est `.pages` ne sera pas lisible dans un environnement Linux ou Windows. F. Kittler évoquait une écriture aveugle en s'appuyant sur le cas de la cécité de Nietzsche et de sa machine à écrire lui permettant d'écrire malgré sa condition. À partir de cet exemple, Kittler démontre que l'écriture ne peut plus être définie selon l'acte de lecture qui l'accompagne. Voir la contradiction avec la controverse sur l'écriture montrée précédemment. Ce phénomène est aussi applicable à l'ordinateur et plus largement au numérique. Le non capacité de lecture/interprétation d'un texte par un ordinateur dans le cas d'un document dont le format n'est pas déchiffrable n'empêche pas l'ordinateur d'écrire à cet emplacement même. Ajouter l'exemple de Kenneth Goldsmith. De la même manière, le type de support sur lequel est sauvegardé une information pose les questions d'accessiblité, de perennité, d'interopérabilité, etc... L'exemple illustrant au mieux cette question est la disquette : qui aujourd'hui peut lire le contenu d'une disquette ? Reprendre Kittler sur le mode protégé et le logiciel n'existe pas sur l'assujetissement. L'auteur devient « usager » = sujet (assujetti) aux logiciels... ## Étude de cas : l'éditeur de texte Stylo Dans cette deuxième partie du chapitre, nous étudions la version 3 de l'éditeur de texte sémantique Stylo afin d'observer ce que cet outil écrit dans le texte. Le point de vue adopté qualifie Stylo en tant qu'agent actif de l'écriture et non plus comme un simple environnement. La méthode appliquée à l'observation de Stylo est empruntée à F. Kittler et consiste à décrire rigoureusement les techniques et technologies pour em comprendre les effets sur le texte. Lorsqu'un.e utilisateur.rice de Stylo tape du texte sur son clavier, quelles sont les réponses que Stylo donne à ces instructions ? ### Qu'est-ce que Stylo ? Stylo est un éditeur de texte sémantique pour l’édition scientifique en sciences humaines. Stylo est autant un projet de recherche qu’un outil d’écriture et d’édition, qui entend poser une question décisive : qu’est-ce qu’écrire en environnement numérique en sciences humaines ? Les nouvelles fonctionnalités développées et déployées au printemps 2023 sont présentées dans ce poster. Stylo est un outil libre et open source conçu en 2017 par la Chaire de recherche du Canada sur les écritures numériques (Vitali-Rosati et al., 2020), et soutenu depuis 2020 par la Très grande infrastructure de recherche Huma-Num. Stylo a pour objectif de transformer le flux de travail numérique des revues savantes en sciences humaines. En tant qu’éditeur de texte sémantique WYSIWYM, il vise à améliorer la chaîne de publication académique (Kembellec 2019), tout en invitant à une réflexion théorique et pratique sur nos façons d’écrire et d’éditer. Prendre le contrôle de son propre texte, voilà ce que permet aujourd’hui Stylo à travers plusieurs fonctionnalités fondatrices ou toutes nouvelles qui s’inscrivent dans le domaine des technologies de l’édition numérique (Blanc et Haute, 2018) : balisage du texte pour une structure sémantique fine, import de données bibliographiques structurées depuis Zotero, mots-clés contrôlés depuis plusieurs ontologies, prévisualisation avec la possibilité d’annoter, génération de plusieurs formats (HTML, PDF, XML ou DOCX), export respectant les standards de l’édition scientifique, fonctions avancées de rechercher-remplacer, édition collaborative simultanée, accès aux données via une API GraphQL, etc. Contrairement aux outils de traitement de texte tels que Microsoft Word, Stylo cherche à promouvoir et à encourager l’utilisation de standards ouverts (Marcello, 2020). Au cœur de Stylo ce sont donc les formats de balisage Markdown, de sérialisation de données YAML ou encore de structuration de références bibliographiques BibTeX qui offrent la possibilité de produire plusieurs formats de sortie depuis une source unique. Pandoc, le « couteau suisse de l’édition », génère les formats de sortie PDF (avec l’aide de LATEX), HTML, XML-TEI ou encore DOCX #### Grandes lignes sur Stylo Stylo est un éditeur de texte sémantique développé pour l'écriture en sciences humaines et sociales par la Chaire de recherche du Canada sur les écritures numériques. L'objectif derrière Stylo est de ... Historiquement, Stylo est le fruit d'une discussion commencée en 2017, à laquelle se joint officiellement Huma-Num en 2020. #### Stylo à la CRCEN et à Huma-Num #### Les briques logicielles ### Les formats pivots de Stylo en détail #### La sérialisation des métadonnées en YAML #### L'écriture en Markdown #### La saisie des références bibliographiques en BibTeX ### Ce que Stylo permet ou non de faire (Qu'est-ce que Stylo en tant qu'agent qui écrit ?) Dépassement du simple rapport de force énoncé précédemment (grâce à une transparence dans les actions de la machine et l'augmentation de la littératie numérique)