---
title: "L'écriture numérique est collective"
date: 2024-01-12
---
Résumé : En suivant les pensées de l'éditorialisation et de l'énonciation
éditoriale, l'écriture numérique n'est plus le seul produit d'une fonction
auctoriale, mais d'un ensemble de fonctions éditoriales dont la fonction
auctoriale fait partie.
Cet ensemble comprend à la fois des interventions humaines mais aussi des
interventions réalisées par la machine, à travers une série de choix
technologiques particuliers, que l'on peut englober sous le terme de chaîne
éditoriale.
Selon ce dispositif, et puisque notre hypothèse positionne l'intime en tant que
produit de l'écriture, nous pouvons nous demander si l'ensemble des fonctions
éditoriales ne participeraient-elles pas à produire l'intimité du chercheur et à
transformer ainsi l'intimité en intimité collective ?
[Note : il s'agit certainement de la problématique de toute la thèse, dans cette
partie on peut se focaliser uniquement sur l'apport de la machine dans cette
intimité (et les autres chapitres sur peer review entre autre et les mémoires)]
Parmi toutes les fonctions éditoriales que l'on pourrait énumérer, nous allons
nous concentrer sur la fonction écriture de l'architexte.
Cet environnement peut être découpé en deux parties : les logiciels et les
matériels.
En fonction de la configuration choisie pour écrire, un auteur peut écrire d'une
certaine manière et pas d'une autre.
Yves Jeanneret et Emmanuël Souchier emploient la notion d'architexte pour
expliquer la
Pour montrer les particularités d'un environnement, une étude sur l'environnement
d'écriture avec l'éditeur de texte sémantique Stylo
## L'écriture numérique
### La controverse sur l'écriture
Définir l'écriture tient généralement de l'anthropologie ou des lettres, la
controverse à ce sujet est très large.
Christin en dresse la cartographie en distingant deux tendances principales :
l'écriture selon les traces ou selon les signes. Dans un cas comme dans l'autre,
ce qui défini finalement l'écriture est l'inscription dans la matière.
### Les particularités de l'écriture numérique
Lorsqu'il s'agit de convoquer _l'écriture numérique_ nous pensons tout de suite
à un ordinateur, aux claviers, aux écrans et au pointeur qui clignote dans un
éditeur de texte ou dans le champ d'un formulaire en ligne.
Avec le numérique ubiquitaire (Citton), ces pratiques d'écriture sont ancrées
dans nos habitudes au point de ne plus les remettre en question (trouver la
ref).
Les dispositifs d'écriture analogique sont ainsi renvoyés à l'état de vestiges
archaïques : par exemple, les machines à écrire, fabriquées méticuleusement
par des ingénieurs et des designers et qui ont fait la fierté et la renommée de
certaines entreprises comme Olivetti en Italie, sont complètement désuètes et
inutilisées depuis une trentaine d'années.
Elles sont aujourd'hui exposées dans des musées (entre autres au MoMA et au
Centre Pompidou) et sont exhibées lors d'exposition en lien avec les designers
qui les ont conçues^[C'est par exemple le cas de la machine à écrire _Valentine_
conçue en 1968 par un designer de renom, Ettore Sottsass, et devenue le produit
emblématique de l'entreprise Olivetti. Cette machine a été mise sur le marché en
1969 et est par la suite devenue un objet iconique de la pop culture. Comme nous
le verrons plus loin, les mêmes années aux États-Unis, le président Johnson
déclare qu'à l'échelle fédérale, les ordinateurs doivent être compatible avec la
norme ASCII.].
![Machine à écrire portative](https://www.photo.rmn.fr/CorexDoc/RMN/Media/TR1/YECPH3/07-521403.jpg "Machine à écrire portative")
Crédits : © Adagp, Paris. Crédit photographique : Georges Meguerditchian - Centre
Pompidou, MNAM-CCI /Dist. RMN-GP. Réf. image : 4N40151. Diffusion image :
[l'Agence Photo de la RMN](https://www.photo.rmn.fr/C.aspx?VP3=SearchResult&IID=2C6NU0CU7GAD)
![Publicité pour la machine à écrire Valentine](https://www.photo.rmn.fr/CorexDoc/RMN/Media/TR1/VYKH9X/13-519016.jpg "Publicité pour la machine à écrire Valentine")
Crédits : © Adagp, Paris. Crédit photographique : Jean-Claude Planchet - Centre
Pompidou, MNAM-CCI /Dist. RMN-GP. Réf. image : 4F40212 [2003 CX 6098]. Diffusion
image : [l'Agence Photo de la RMN](https://www.photo.rmn.fr/C.aspx?VP3=SearchResult&IID=2C6NU0DWCD6W)
Pourtant, les derniers modèles fabriqués par ces entreprises l'ont été dans les
années 1980 ou 1990, comme c'est le cas de l'ETP 55 Portable^[Cette machine a
été conçue par Mario Bellini pour Olivetti en 1987, site consulté le 21 février 2024
https://www.moma.org/collection/works/3641]) et intégre dès la fin des années
1970 un fonctionnement électronique.
Les constructeurs ont opéré un changement de paradigme de l'analogique
vers le numérique à ce moment-là et suivi les innovations technologiques
informatiques.
Pour preuve, en 1983, Perry A. King et Antonio Macchi Cassia réussissent
à produire le premier ordinateur personnel d'Olivetti avec le M10 en adaptant un
clavier à un écran à cristaux liquide.
Cet ordinateur, équipé du processeur Intel 80C85 en 8-bits, pouvait également se
connecter à tout un ensemble de périphériques comme des imprimantes.
![Photo d'un
M10](https://upload.wikimedia.org/wikipedia/commons/thumb/0/0d/Sottsass05.JPG/120px-Sottsass05.JPG
"Photo d'un M10")
Crédits : Photo trouvée sur [Wikipédia](https://en.wikipedia.org/wiki/Olivetti_computers#/media/File:Sottsass05.JPG)
le 22 février 2024.
Il faut se rappeler qu'au début des années 1980 il n'est pas encore certain que
l'ordinateur personnel (avec sa tour et son écran à tube cathodique) deviendra
l'outil d'écriture par excellence.
À cette époque, les machines à écrire ont encore quelques avantages sur les
plans esthétique, financier et elles sont encore implantées à la fois dans les
sphères professionnelles et personnelles.
Matthew Kirschenbaum détaille dans son ouvrage (ref) la bataille entre les
fournisseurs de logiciels de traitement de texte durant cette décennie pour
obtenir en obtenir le monopole.
Avant l'avènement des interfaces graphiques, la seule chose affichée à l'écran
était un terminal et la navigation se faisait au moyen de commandes (rappeler
les premiers logiciels).
De plus, en dehors de logiciels plus complexe comme `TeX`, développé par Donald
Knuth, il n'était pas aisé de gérer la mise en page des documents depuis des
éditeurs de texte ou premiers traitements de texte.
Ainsi, écrire sur un support connecté paraît aujourd'hui être une évidence alors
qu'elle a demandé de lourds efforts à une époque où cette évidence était
incertaine.
L'écriture numérique est ainsi à distinguer de l'écriture dans un environnement
numérique : un ordinateur, Internet, le Web, une calculatrice ou une
machine à écrire.
En tant qu'abstraction, l'écriture numérique est une représentation du monde
donnée, dont la qualification à travers un medium permet de l'incarner
physiquement mais pas de la circonscrire.
Cette représentation numérique du monde n'est pas nouvelle et ce n'est pas
l'ordinateur qui l'a apporté.
À notre connaissance, son origine remonte aux prémices de l'écriture et des
développements des systèmes monétaires, nous dit C. Herrenschmidt (2007).
Dorénavant, lorsque nous ferons référence à l'écriture numérique nous parlerons
d'une écriture numérique dans un environnement informatique.
L'écriture numérique diffère d'une écriture plus traditionnelle (du monde
de l'imprimerie) et se distingue notamment par deux caractéristiques que sont la
calculabilité et la séparation du geste et de l'inscription.
La première caractéristique est d'ordre computationnel :
l'écriture devient calculable et peut donc faire l'objet d'instructions (Crozat,
Bouchardon, Petit, Kembellec, Herrenschmidt, Vitali-Rosati, Kittler, Bachimont,
Merzeau).
Pour réaliser cette prouesse dans un environnement informatique, on procède a
une équivalence où chaque signe que l'on peut y inscrire à son pendant unique
sous forme de _bits_.
Lorsque chaque caractère peut être identifié en tant que nombre, il devient
possible d'implémenter ce modèle dans une machine et de lui demander, sous forme
d'instructions, d'appliquer des calculs.
L'exemple idéal pour illustrer cette caractéristique n'est rien de moins que la
machine imaginée par Alan Turing, qu'il présente en 1936 dans son article "On
Computable Numbers, with an Application to the Entscheidungsproblem" dans la
section _Computing machines_.
Il ne s'agit pas d'une machine physique mais d'un modèle théorique, une machine
abstraite fondamentale pour les développements futurs de l'informatique.
Cette machine est constituée de plusieurs éléments :
- un ruban (_tape_) divisé en sections (appelés _squares_) dont chacune peut
porter un symbole (0 ou 1 car cette machine est dans un système binaire).
- un organe de lecture (_scan_) pour lire les symboles un à un (_scanned square
and scanned symbol_) et d'écriture pour modifier un symbole ou en écrire une
nouveau si la section est vide
- une mémoire pour se rappeler des sections déjà scannées (_remember some of
the symbols which it has "seen" (scanned) previously_)
- des instructions pour se déplacer sur le ruban, soit une case vers la gauche
soit une case vers la droite, lire et écrire (_scan and print_) ou modifier
la case scannée et se redéplacer (ou s'arrêter).
Théoriquement, le ruban sur lequel la machine exécute ses programmes est infini
vers la gauche et vers la droite et cela afin de permettre l'exécution des
instructions les plus complexes.
La machine de Turing ne s'intéresse pas aux résultats des instructions, ni à
leur signification.
L'espace de la machine, aussi vaste soit-il, n'est composé que de séries de 0 et
de 1 et de différents états, renvoyant à des instructions, permettant ainsi à la
machine de modifier son propre espace.
Le passage du signe à l'unité atomique et discrète qu'est le chiffre signifie un
changement de représentation du monde (cf _worldview_ de K. Hayles) : le monde
n'est alors plus signifié par des mots ou des concepts mais le devient par des
chiffres.
Comme McLuhan nous le rappelle dès 1964, les alphabets composés de lettres
(contrairement à ceux composés de pictogrammes) sont asémantiques.
Si toutefois les alphabets sont liés à une culture d'où ils émergent,
l'abstraction nécessaire pour représenter le monde sous forme de chiffres
détacherait _a priori_ cette vision de tout sens.
En dehors de tout modèle mathématiques abstrait, et cela quel que soit le langage
ou la base utilisée pour l'écrire, `3`, `trois`, `three`, `III`, `0011`,
`zéro zéro un un`, un chiffre ne signifie pas grand chose s'il n'est pas associé
à un système de valeurs particulier, par exemple le système métrique ou le
système international (Herrenschmidt 2007, voir intro).
En échange de cette perte de signification, l'écriture numérique y gagne cette
particularité d'être calculable et mesurable.
Dès lors, il devient possible de mesurer des distances ou des écarts entre des
lettres, des mots ou des concepts, des données dans un environnement donné.
[ajouter une note sur le propos de Luca Paltrienieri]
Deuxième caractéristique, l'écriture numérique se distingue également des autres
types d'écriture parce qu'il s'agit de la première écriture où le geste d'écrire
ne correspond pas à l'action d'inscription du signe sur son support.
Lorsqu'on appuie sur une touche du clavier, la lettre n'est pas inscrite à
l'écran : on donne une instruction à la machine d'inscrire un signe dans le
disque dur, puis de l'afficher à l'écran dans un logiciel particulier (Kittler,
Souchier, etc).
Pour comprendre un peu mieux cette particularité, nous pouvons observer le
fonctionnement d'un ordinateur.
### Détails de l'action d'écriture dans l'ordinateur
La représentation d'un ordinateur contemporain est un souvent associé à un couple
matériel/logiciel (que l'on trouve fréquemment sous l'appellation anglaise
_hardware_/_software_).
La partie matérielle concerne tous les composants électroniques (carte mère,
mémoires, périphériques, etc.), alors que la partie logicielle englobe tous les
programmes permettant d'interagir avec la partie matérielle, comme le BIOS
(_Basic Input Output System_), le système d'exploitation ou encore un logiciel
de traitement de texte.
Ce couple matériel/logiciel permet de ranger l'ordinateur dans une catégorie
particulière de machines : les appareils programmables.
La plupart de nos appareils du quotidien ne sont pas programmables : ils
exécutent ce pour quoi ils sont conçus et ne font rien d'autre.
Dans le cas d'un ordinateur (ou d'un téléphone intelligent) ou de tout autre
appareil programmable, ces appareils sont conçus pour être manipulable comme on
le souhaite et d'adapter le traitement des informations en conséquence : ils n'ont pas
une fonction précise, au contraire ce sont des machines capable de répondre à
plusieurs fonctions.
C'est là que les logiciels interviennent : ils permettent un usage déterminé
d'un ordinateur en manipulant des informations de manière à exécuter une suite
d'instructions données.
#### Fonctionnement de la partie matérielle
[De la machine en local (clavier, souris, écran, carte mère, RAM, alimentation,
microprocesseur, etc.)]
Pour fonctionner, un ordinateur n'a besoin que des éléments suivants : une
alimentation, un processeur, une mémoire vive, des entrées et sorties et une
carte mère auquel viennent s'ajouter un certains nombre de périphériques
(écrans, souris, clavier, etc.), des extensions pour prendre en charge une
partie des calculs (carte son, carte graphique) et des mémoires de stockage
(disques durs) entre autres.
Le processeur, ou microprocesseur pour les ordinateurs modernes, est le
calculateur central de l'ordinateur, c'est cet élément qui manipule toutes les
données à traiter.
Chaque modèle de processeur à une architecture qui lui est propre, ce qui veut
dire que chacun traite les informations **différemment** (même si le
résultat obtenu est identique).
Un processeur est un assemblage de multiples types de circuits dont l'élément
le plus petit est le transistor.
L'évolution des processeur a suivi la Loi Moore jusqu'au début des années
2020^[La première loi de Moore est relative à l'évolution des processeurs dans le temps et
stipule que le nombre de transistors présent dans les processeurs doublera tous
les ans pour un coût constant], date à partir de laquelle nous arrivons à la
limite physique de la miniaturisation d'un transistor.
Le premier processeur commercialisé, le processeur Intel 4004, l'a été en
1971^[Voir la page web correspondante sur le site d'Intel, consulté le 16
février 2024\ :
https://www.intel.fr/content/www/fr/fr/history/museum-story-of-intel-4004.html].
Il s'agissait d'un processeur 4-bits comportant pas moins de 2300 transistors.
Lors de la commercialisation de cet objet s'opère un changement radical dans la
conception des ordinateurs puisque, dès lors, du fait de la miniaturisation de
ce composant, les ordinateurs deviennent accessibles au grand public.
En suivant la première loi de Moore, les microprocesseurs ont continué à évoluer
jusqu'à atteindre le nombre de plusieurs milliards de transistors par
processeur, démultipliant ainsi leur capacité de traitement des informations.
Cette miniaturisation est rendue possible par la gravure des transistors dans des
disque de silice (_wafer_) plutôt que l'usage plus couteux et instable de relais
et tubes électroniques.
Un transistor est un composant électronique dont le rôle est de laisser passer
le courant ou non grâce aux propriétés du semi-conducteur à partir duquel il est
fabriqué.
En fonction de la valeur du courant qui lui est appliqué, le résultat associé à
cette valeur sera `0` ou `1`.
Ce transistor est l'élément physique qui incarne les portes logiques (ET, OU,
OUI, NON, XOR, etc.) et traitent toutes les données.
Parmi tous les traitements possibles, certains nécessitent de garder en mémoire
des résultats intermédiaires, les données temporaires nécessaires aux traitements sont
enregistrées dans la mémoire vive de l'ordinateur.
Ce stockage intermédiaire mène à la question de la mémoire : on en retrouve
plusieurs types blablabla (RAM et ROM). Le principe de fonctionnement des
mémoires vives (RAM) est le même que pour les processeurs : ce sont des mémoires
construites sur la base de transistors et/ou portes logiques.
Ces informations traitées, transformées et mémorisées proviennent de ce que l'on
nomme des _entrées_ : ce sont elles qui encodent les informations en
chiffres.
Une fois traitées, ou lorsque l'on souhaite s'en servir, ces données passent par
des _sorties_.
Les sorties font le travail inverse des entrées et décodent les chiffres en
signes interprétables.
#### Le codage de l'information
L'encodage et le décodage des caractères accompagne toute l'histoire de
l'informatique (et du numérique).
Au prémices de l'informatique, chaque matériel comportait ses propres programmes
et tables d'encodage, rendant ainsi possible la transposition des données d'un
matériel à un autre.
Cependant, dans la plupart des cas, les données ne pouvaient pas circuler
entre les différents modèles d'ordinateur, ou alors au moyen de transformations
fastidieuses, rendant ainsi les traitements réalisés sur les données enfermés dans
des silos.
La norme ASCII (_American Standard Code for Information Interchange_) fait sont
apparition dans les années 1960 pour résoudre les enjeux liés à l'encodage des données.
Soumise à l'_American Standards Association_ (d'abord ASA puis ANSI) en 1961 par l'un
de ses inventeurs, Bob Bemer, puis approuvée en 1963, l'ASCII permet d'encoder
128 caractères sur 7 bits.
Néanmoins, ce n'est pas parce qu'un encodage est reconnue en tant que norme que
son usage est effectif à l'instant même de la reconnaissance.
Il faut attendre 1968 que le président des États-Unis Johnson demande à ce que
l'ASCII devienne la norme fédérale d'encodage des informations afin de réduire
les incompatibilités au sein des réseaux de télécommunications pour qu'elle
commence à se répandre.
Dès 1969, tous les ordinateurs achetés par le gouvernement des États-Unis
étaient compatibles avec la norme ASCII.
Du côté des ordinateurs personnels, il faudra attendre le début des années 1980
pour que cette norme se répande grâce, entre autre, à son implémentation dans
les ordinateurs construits par IBM.
La norme X3.4:1986 en vigueur aujourd'hui, a été déposée auprès de l'ANSI en 1986.
C'est à partir de cette norme que d'autres ont été développées et sont
compatibles ASCII, comme c'est par exemple le cas pour la norme Unicode, publiée
en 1991, qui est la plus répandue de nos jours, car c'est elle qui encode le plus
de caractères.
Si ASCII en contient 128 points de code, le standard Unicode permet d'en encoder
plus de 149 000 sur une vingtaine de bits par point de code dans sa version 15.1
(de 2023).
Afin de préserver cette compatiblité entre les normes, il est d'usage d'encoder
les 128 premiers caractères de façon identique à ASCII.
#### Fonctionnement du software (les différentes piles)
Bios, OS, Logiciels, réseaux (protocoles HTTP, TCP/IP, IMAP, POP, REST,
GrapHQL), communication entre les différentes couches et fonctionnement de
l'inscription dans le disque dur (HDD et SSD).
[Aux machines distantes (Serveurs, fibre optique, ADSL ... Histoire de l'Internet
physique)]
#### Conclusion
[Si j'écris la chaine de caractère "Hello world" elle passe par (décrire les
éléments) jusqu'à cet encodage dans le disque dur, voir si l'écriture avec une
autre architecture propose un encodage différent]
Ce que l'on remarque en regardant de près cette configuration de l'environnement
d'écriture numérique est qu'il n'est pas possible d'écrire sur le disque dur
sans un agent intermédiaire : le logiciel.
## L'architexte écrit dans le texte
### Définition de l'architexte
Sans l'intervention du logiciel comme médiateur entre l'être humain et le
support d'inscription de l'écriture numérique, il ne serait pas possible pour
l'auteur d'écrire dans cet environnement.
Si l'on considère l'écriture comme le geste d'inscrire une trace ou un signe
dans un support, alors l'écriture numérique n'est plus un fait humain mais un
acte réalisé par l'ordinateur lui-même.
L'interaction entre un humain et une machine consiste en une série
d'instructions que donne l'utilisateur à la machine qui, ensuite, les
exécute.
Le mécanisme sous-jacent à ce que l'on considère communément comme l'écriture
numérique (frapper une touche du clavier et voir la lettre s'afficher à l'écran)
s'avère plus complexe.
Le moment de la frappe n'est plus le moment où le symbole est inscrit dans le
disque dur, mais est le moment où une instruction est donnée à l'ordinateur qui
ensuite se charge d'inscrire la lettre correspondante sur le disque dur (sous
forme binaire).
Si l'on se trouve dans le cas de figure de la saisie d'un texte dans un éditeur
de texte, l'instruction suivante, selon les logiciels et les actions souhaitées,
consiste à afficher le symbole encodé sur le disque dur à l'écran.
Pour réaliser ces actions, Yves Jeanneret et Emmanuël Souchier partent de ce
constat qu'il n'est pas possible d'écrire un texte sans qu'un autre texte soit
déjà présent pour réaliser cette action.
Ce texte particulier qui pré-existe toute activité numérique est nommé
_architexte_ (refs x, x, 2019).
L'architexte a d'abord été employé en littératures par Gérard Genette (ref) et
désigne ...XXX.
En 2019, dans l'ouvrage intitulé _Le numérique comme écriture_, Gustavo
Gomez-Mejia, Étienne Candel et Emmanuël Souchier résument la notion d'architexte
comme :
> Initialement défini comme une « écriture d’écriture » puis comme un
« dispositif d’écriture écrit », l’architexte s’avère être un point de passage
obligé pour toute activité numérique. Il n’y a effectivement pas d’écriture à
l’écran sans un architexte qui la rend possible, l’accompagne et la formate.
Pour la première fois de son histoire, l’homme a donc recours à des
« dispositifs d’écriture écrits » spécifiques pour pouvoir pratiquer une
activité d’écriture (E. Souchier, 1998, 2013). Or, précisément en ce qu’ils sont
« eux-mêmes écrits », les architextes « sont des textes lisibles et
interprétables. Porteurs et prescripteurs d’une écriture à venir, ils anticipent
de ce fait une figure de l’auteur » (É. Candel, G. Gomez Mejia, 2013) et
relèvent donc de « l’énonciation éditoriale » (E. Souchier, 1998).
Globalement, l'architexte incarne le cadre dans lequel les agents peuvent
écrire.
Il permet de faire la distinction entre ce que Marie Depret-Lonnet (ref) nomme
gabarit, les espaces proposés par les éditeurs de logiciels ou applications pour
écrire, et le texte saisi par l'utilisateur, c'est-à-dire le texte qui vient
remplir le gabarit.
Cet architexte, ce cadre, est régit par des règles qui définissent comment l'on
peut écrire mais surtout comment les signes à inscrire doivent être formatés.
#### Revue de la littérature mobilisant l'architexte
Goody
### L'architexte n'est pas qu'une surface
[Revenir sur Christin et sa critique de Goody]
Nous l'avons vu, l'architexte se positionne en tant que médiateur entre un
auteur et la machine qu'il emploie pour écrire.
Jusqu'à présent, la définition de l'architexte englobe largement tous les écrits
qui permettent d'écrire à l'écran.
En 2019 G. Gomez-Mejia, E. Souchier et E. Candel précisent ce que sont ces
méta-écritures et en dressent une typologie composée de quatre « cadres
d'écrits d'écran » :
- le matériel
- le système
- le logiciel
- le document
Le premier cadre, matériel, désigne toute la composante physique de l'ordinateur
et surtout l'écran sur lequel est affiché le texte.
Le cadre système, quant à lui, est associé à la couche permettant de générer un
environnement d'écriture numérique, initialisé par le BIOS, un _firmware_ flashé
dans la mémoire morte de la carte mère de l'ordinateur permettant de réaliser un
certains nombre d'instructions lors de la mise sous tension comme par exemple le
démarrage du système d'exploitation qui constitue le deuxième élément principal
du système.
Le cadre logiciel est relatif à l'ensemble des logiciels que l'on peut exécuter
dans un système d'exploitation, par exemple un terminal, un navigateur ou un
traitement de texte.
Enfin, le dernier cadre est celui du document.
Le document doit être compris comme un objet, ou une forme, déterminé et à
l'intérieur duquel des éléments sémiotiques sont organisés et structurés
(Pédauque (2006, 2007), Zacklad).
Ces cadres sont un début de réponse au dépassement de l'écran.
Néanmoins, plutôt que d'approfondir cette dimension invisible du texte, les
auteurs reviennent sur la couche graphique en ajoutant qu'« à cet enchâssement
de cadres, il faudrait encore ajouter ceux que composent, à l’intérieur même du
document, les rubriques, encadrés, cartouches, « boîtes de dialogue » ou autres
formes de cadres éditoriaux structurants pour le travail même du texte ».
De plus, toujours selon les auteurs :
> Le premier "cadre" [qui] définit les conditions de possibilités matérielles de
l’activité, est le seul inanimé. Les trois suivants, cadres système, logiciel et
document, relèvent de l’ingénierie textuelle et définissent les conditions de
réalisation de l’activité. On voit ainsi qu’une activité d’écriture réalisée sur
le « document » d’un logiciel de traitement de texte est mise en abyme au sein
de l’ensemble des autres « cadres » qui la rendent possible et la déterminent
techniquement et sémiotiquement.
Ce premier cadre de « l'écrit d'écran » ne désigne, pour les auteurs, que
l'écran.
Or, il n'est pas nommé _cadre écran_ mais _cadre matériel_ et devrait renvoyer à
toute la dimension physique d'un ordinateur et pas seulement à l'organe
d'affichage qui, dans cette disposition, apparaît comme central dans le
fonctionnement d'un ordinateur.
Le fait de rendre la couche _hardware_ inanimée dans le production du texte
écrit et de renvoyer cette production aux couches supérieures crée deux
contradictions.
La première contradiction efface la fonction éditoriale du _hardware_,
considérée dès lors comme neutre ce qui, paradoxalement, irait à l'encontre de
l'énonciation éditoriale (Jeanneret & Souchier) dont l'intérêt est l'observation
des dynamiques de production de l'écriture.
La deuxième contradiction repose dans la perception du fonctionnement d'un
ordinateur.
Si l'on pousse ce raisonnement du matériel inanimé, la machine ne pourrait pas
inscrire le texte sur un disque dur.
Or, nous avons vu que, _stricto sensus_, c'est bien la machine qui réalise l'action
d'écrire/inscrire sur le support.
En rendant cette couche inanimée, on y perd la caractéristique de co-écriture
défendue par les auteurs auparavant.
De plus, le renvoi à la surcouche graphique ajoute un masque supplémentaire à ce
que nous essayons de voir en-dessous.
Ce que nous pouvons en comprendre est que, finalement, la notion d'architexte
telle qu'elle est construite par Souchier _et al_, est anthropocentrée et
s'appuie sur des conventions de lecture (_lettrure_) humaines.
Le dépassement de l'écran est un acte symbolique nécessaire pour se soustraire à
une vision anthropocentrée telle qu'elle vient d'être proposée.
Pour ce faire, revenons à l'écriture comme moyen de transmettre une information
au sein d'un système donné.
En l'astreignant à un système d'informations comprenant seulement des agents
humains, il devient difficile d'inclure l'ordinateur comme un agent agissant de
ce système.
Ce système dispose d'un argument de taille (variable) pour nous conforter dans
cette interprétation, l'écran, accompagné d'un objet virtuel qui n'existe que
pour nous réconforter dans notre usage de l'ordinateur : la page.
### Dépassement de l'écran et de la page
Le terme « page » revient de manière récurrente dans nos usages de
l'ordinateur : on le retrouve dans les logiciels de traitement de texte (il y a
même un logiciel du nom de _Pages_ disponible dans l'environnement Apple), dans
les livres numériques ou encore dans le web où chaque URL est l'adresse d'une page.
Matthew Kirschenbaum détaille notamment la relation de l'utilisateur à la page
dans son ouvrage ...
[Ajouter une note sur Kirschenbaum]
Cet objet qu'est la page a été instauré dans l'ordinateur uniquement pour
reproduire une « habitude » et créer un lien fictif entre les visions du monde
de l'imprimerie et de l'informatique.
Cet artefact produit une forme de réconfort auprès de l'utilisateur pour que le
monde informatique lui semble plus tangible, qu'il ait quelque chose auquel se
raccrocher, d'où sa déclinaison dans des espaces différents, comme le web, qui
ne ressemble plus du tout à des pages au format lettre ou A4.
La page affichée à l'écran n'existe qu'à cet endroit, il ne s'agit que d'un
rendu graphique qui ne fait pas partie de l'écriture (au sens du texte saisi).
Le pouvoir de la page sur l'utilisateur est considérable étant donnée la nature
même de cet objet que l'on pourrait considérer comme l'un des seuls à être
virtuel et presque sans matérialité du point de vue de l'informatique.
Malgré tous les efforts effectués depuis son instauration à l'écran, la page
affichée n'est jamais la page imprimée car aussi précis que soient les détails
typographiques que l'on peut y ajuster, elle ne reflétera jamais le grain,
l'épaisseur, l'odeur ou tout autre caractéristique physique du papier.
La critique énoncée à l'endroit de la page ne doit pas être réduite à une
apologie d'un mode sans page.
Elle consiste plutôt à montrer qu'à vouloir préserver une habitude pour « ne pas
effrayer » l'utilisateur, la page fait écran devant l'ordinateur, et cache la
machine qui ne devient plus qu'un simple mécanisme au lieu d'être un agent de
l'énonciation éditoriale.
Cette peur de l'informatique relève essentiellement de l'angoisse de
l'arrachement d'une valeur qui définie l'être humain et devienne une caractéristique
d'une autre entité, ne permettant plus de définir l'humain en regard de ce que lui
seul est capable de faire (Vitali-Rosati).
Kittler, à ce propos, nous rappelle qu'historiquement les caractéristiques
qui définissent l'être humain sont souvent le symbole du pouvoir et désigne
plutôt les hommes alors qu'à l'instant même ou cette caractéristique est
déchue de son statut de marqueur d'une puissance, ce sont les femmes qui en
héritent et deviennent les expertes en ce domaine (Kittler ref).
Il y aurait donc une peur de perdre non seulement une caractéristique de
l'humanité mais surtout une caractéristique de la masculinité.
Néanmoins, avant d'en arriver à cette émotion forte qu'est la peur et qui
traduit la non capacité à définir l'être humain, nous pouvons nous appuyer sur
la pensée de G. Anders et ressentir une forme de honte que l'écran camoufle.
Interagir avec une machine demande une certaine rigueur : qu'il s'agisse de
structurer un document ou de lui donner une série d'instructions (du code), une
machine ne peut interpréter l'ambiguité ou l'implicite culturel.
Cela veut dire qu'aucun échange humain-ordinateur ne peut reposer sur des
conventions culturelles de lecture et que l'instruction donnée n'a, en elle-même, aucun
sens.
Dès lors, comment admettre que quelque chose qui n'a pas de sens puisse en
générer ?
La honte (prométhéenne) d'Anders est alors double : d'un côté il y a un mélange
de fierté devant cette machine créée par l'être humain et de honte parce que
l'individu isolé devant la machine sait que ce n'est pas lui qui l'a mise au
point et, de l'autre, il y a cette honte à être face à un outil qui réalise une
action mieux qu'on ne le ferait soi-même alors que cette dite machine n'a aucune
conscience de ce qu'elle réalise.
Le dépassement de l'écran est une proposition pour poser un autre regard non
anthropocentré sur cette question de l'écriture numérique.
Elle signifie qu'il ne s'agit plus de poser la question de l'auteur de
l'écriture, en admettant que c'est bien la machine qui écrit, et de se demander
comment cette nouvelle fonction (inter)agit entre les agents humains.
Que se passe-t-il lorsque cet ordinateur devient un agent actif qui écrit et
transmet des informations entre, d'une part, l'instructeur (la personne qui
donne des instructions) et la ou les personnes qui lisent les productions
écrites ?
Dans cette configuration s'opère un changement radical de l'état de
l'ordinateur.
Cette machine passe de l'état de médiateur, de support de l'écriture, à celui
d'entité agissante au sein d'un système.
En s'appuyant sur Kittler et sa très célèbre provocation « Es gibt keine
Software », traduit par « Le logiciel n'existe pas » ...
Katherine Hayles s'inscrit sur les traces de Kittler et propose également une
nouvelle perspective sur l'écriture (My mother was a computer et how we become
posthuman + parole, écriture, code)...
Il y aurait donc une action du côté de la machine...
Le logiciel n'existe pas en tant qu'entité agissante.
Ce n'est ni un agent qui écrit (ni un médiateur).
C'est bien l'ordinateur qui écrit à travers les instructions qu'il reçoit (de
l'utilisateur et de l'éditeur du logiciel de par son code).
Ce qui se trouve entre l'ordinateur et l'auteur est du texte qui permet d'écrire
à la machine d'écrire du texte.
Dans sa conférence sur les logiciels, Kittler démontre que le logiciel est
ramené au mpeme niveau que le reste des écritures par l'ordinateur, c'est-à-dire
au niveau le plus bas (binaire).
En ce sens, les écritures des logiciels ne servent qu'à camoufler le
fonctionnement de la machine.
Un autre particularité des logiciels que souligne Kittler est qu'un logiciel ne
peut pas exister en dehors de son environnement numérique.
L'intermédialité montréalaise peut aider à expliquer ce phénomène (citer ref)
[expliquer intermédialité montréalaise]
Pour aller plus loin dans cette réflexion, nous pouvons même abolir la notion de
média au profit de celle de médiation en mobilisant le texte de Larrue et de
Vitali-Rosati (Media does not exist)...
Cette proposition de Larrue et Vitali-Rosati, qui s'inscrit directement dans la
lignée des travaux de Kittler, permet de faire abstraction de l'objet même
qu'est le média et de se concentrer sur l'interaction _entre_, la médiation.
Finalement, ce n'est pas l'étude du support (physique) qui doit faire l'objet
de l'étude mais la relation ou la dynamique, le _flux_, entre les différents
agents d'où émerge la matérialité.
Kittler fait la même proposition dans sa conférence _Le logiciel n'existe pas_.
Revenir sur la matérialité (en tant que propriété émergente, citer Hayles) du
texte qui est tout sauf affichée sur un écran : l'écran et surtout la surcouche
graphique de mise en page est une illusion créée pour le lecteur humain : elle
a son importance dès lors que le système d'informations prévoit des
destinataires humains mais elle en perd lorsqu'il s'agit d'étudier les relations
entre un ordinateur et un auteur.
Or le principal lectorat des textes numériques sont les robots : les textes
écrits sont écrits avec des machines et principalement pour les machines (c'est,
par exemple, pour cela que le documentaliste déclare formellement les
données)(citer Kembellec etc)
La quest
### Ce que l'architexte inscrit dans le support
#### WYSIWYM vs WYSIWYG
Selon les formats d'écriture, et lorsqu'on sort du paradigme WYSIWYG pour celui
du WYSIWYM, on s'émancipe de la surcouche graphique pour entrer directement dans
la couche de la structuration des contenus.
_What You See Is What You Get_, ou WYSIWYG, est l'acronyme généralement employé
pour désigner les outils qui adoptent une surcouche graphique pour mettre en
page le contenu directement, au risque de ne pas structurer de la façon
souhaitée.
Le paradigme opposé, _What You See Is What You Mean_, distingue la mise en page
(graphique) du texte de sa structuration.
Les formats employées sont généralement en texte brut et permettent souvent de
baliser le contenu pour définir la nature des éléments à décrire.
C'est le cas par exemple de tous les langages de balisages tels HTML ou XML mais
également les langages de balisage léger tels Markdown, AsciiDoc,
reStrucredText,...
Arrivé à ce niveau, l'agent humain ne dépend plus d'un logiciel particulier pour
saisir son texte mais peut faire le choix de l'environnement dans lequel il veut
travailler puisque le texte saisi l'est dans un format brut ce qui, a priori,
est réalisable dans tous les environnements de saisi.
Écrire en texte brut signifie également ouvrir les possibilités de structuration
du texte même : ce n'est plus Microsoft Word ou LibreOffice qui décident de
quelle manière sont structurées les informations mais le choix d'un format ou
d'une saveur particulière d'un format.
L'encodage d'un texte en XML illustre bien ce propos.
XML pour eXtensible Markup Language; est également un métalangage de balisage et
de modélisation du texte.
Plus souple que le HTML dont les balises sont figées, XML permet à chaque
utilisateur de créer son propre système hiérarchique arborescent par
l’élaboration de balises personnalisées.
Postérieur d’une décennie au HTML, la publication des recommandations de la
première version (1.0) du métalangage XML voit le jour en 1998.
La description rigoureuse permise grâce à cette technologie en fait un outil
utilisé à plusieurs fins notamment l’élaboration d’éditions critiques de
certains textes, qu’ils soient anciens ou nativement numériques ou encore la
description formelle de jeux de données (jusqu’à la création de bases de
données).
XML peut être associé à un autre langage, le XSL (eXtensible Stylesheet
Language), qui décrit comment doit être transformé le XML.
XML est un langage supporté par les navigateurs web et est facilement
transformable en HTML et compatible avec le CSS.
Que l'on soit sous système d'exploitation Linux, MacOS ou Windows, le XML peut
être saisi et lu dans tous les éditeurs de texte.
De plus, le XML a cette particularité de ne pas imposer de règles particulières
en dehors de la déclaration de la structure des informations avec des balises
ouvrantes et fermantes.
Chacun est en capacité de créer ses propres règles de structuration des contenus
en XML en créant un schéma (ensemble de régles qui déterminent les agencements
des différentes balises entre elles) qui correspond aux besoins de l'écriture.
Par exemple, lors de l'édition d'un article scientifique, comment pouvons-nous
définir un auteur ?
Si l'on écrit la chaîne de caractère "René Dupont" en bas du texte, nous
pouvons par convention de lecture deviner que "René" est le prénom de l'auteur
et "Dupont" son nom.
Or, pour l'ordinateur, cette chaîne de caractère n'est rien d'autre qu'une série
de caractères qui n'a aucune valeur sémantique.
Si l'on saisit cette même chaîne de caractères en XML, on peut commencer par y
ajouter une balise `René Dupont` pour signifier explicitement
qu'il s'agit de l'auteur du texte.
Toutefois, il est possible de préciser encore plus cette notion d'auteur, en y
ajoutant par exemple des balises `` et ``.
La description de ce qu'est un auteur, pour l'écriture de cet article, devient
formelle et explicite.
Cependant, pour l'écriture savante, est-ce qu'un auteur est seulement un nom et
un prénom ?
En fonction des contextes de publication, il est possible qu'un autre agent, la
revue, définisse également l'auteur avec d'autres informations telles que
l'affiliation académique, une adresse courriel et un identifiant unique comme
l'ORCID.
L'auteur René Dupont prendrait alors la forme suivante :
```XML
Dupont
René
rene.dupont@parisuniversite.fr
Université de Paris
XXXXXXX
```
Le format XML est un exemple très explicite.
La sémantique du texte y est structurée selon deux dimensions, à la fois en termes
de structuration verticale des informations mais aussi dans la saisie des noms
des balises qui, en général, renvoient à des éléments lisibles et compréhensibles,
ce qui n'est pas le cas de tous les formats.
D'autres langages de balisage, notamment ceux dit légers comme le Markdown,
l'AsciiDoc ou le reStructuredText, emploient des symboles tels que `=` ou `#`
pour structurer les informations dans le document.
Contrairement à ce que nous avons vu avec le XML, la signification des éléments
structurants n'est pas forcément explicite pour une lecture humaine, même si on
peut la deviner ou apprendre ce que la balise définit.
#### Définir le format
Le terme format est avant tout un terme technique, il délimite les
caractéristiques d’un objet. Ces caractéristiques sont formulées par un certain
nombres de données, d’instructions, ou de règles. L’objectif est de disposer
d’un consensus pour dialoguer autour d’un objet ou de faire communiquer des
processus qui traîtent ou qui produisent des formats.
Le format est une contrainte technique dans des environnements qui peuvent être
très divers : formats d’objets physiques comme le papier, formats informatiques
que nous connaissons par l’extension des fichiers sur nos ordinateurs, ou
formats littéraires concernant l’agencement des mots et des phrases.
Nous nous concentrons ici sur les contraintes techniques et informatiques.
En fonction des nécessités d’un système d’exploitation, d’un programme
informatique ou d’une plateforme en ligne, il faudra utiliser tel ou tel format.
Un format qui n’est pas standard (ces caractéristiques doivent être décrites),
qui n’est pas ouvert (il est possible de comprendre comment le format
fonctionne) ou qui nécessite un environnement très spécifique pour être lu ou
transformé va générer beaucoup d’obstacles pour son utilisation.
La contrainte du format est liée à d’autres contraintes comme la compatibilité
(quel format peut être lu par quel programme ou logiciel ?), l’interopérabilité
(est-ce que le format peut être utilisé de la même façon quel que soit
l’environnement ?), la dépendance (de quoi un système a-t-il besoin pour traiter
le format) et au libre/open-source (est-ce que le format peut être lu, modifié,
partagé ?).
Si le but du format est de constituer une série d’informations compréhensibles,
utilisables et communicables, il reste une contrainte forte pour les chaînes de
publication. Que ce soit en tant que format d’entrée, format pivot ou format de
sortie, il déterminera le fonctionnement de la chaîne.
Enfin, le choix d’un format se fait en fonction de deux paramètres essentiels :
- le temps : est-ce que le format va devenir obsolète et ne sera plus reconnu
par le ou les programmes de la forge ?
- la communauté : y a-t-il d’autres personnes en mesure de comprendre le format
et d’apporter de l’aide (cas d’usage, solutions techniques, etc.) ?
### Assujetissement à l'architexte et aux formats
Il y a un rapport de force qui s'instaure entre l'éditeur de l'architexte et
l'utilisateur.
Dans le cas d'un logiciel de traitement de texte, lorsque, par exemple,
Microsoft propose une modification de la police par défaut dans une version
actualisée de son logiciel MSWord, Microsoft change également les manières
d'écrire de tous les individus à travers le monde qui utilisent leur logiciel.
Il en va de même pour Stylo, LibreOffice, Ghostwriter, etc.
Si l'on s'arrête à la vision superficielle du texte, comme le propose Goody, on
ne voit que les éléments graphiques mais nous oublions aussi ceux qui sont
invisibles et disparaissent sous la page écranique.
Certes les interfaces d'écriture sont présentées sous la forme de gabarit que
l'on doit remplir, comme c'est par exemple le cas des logiciels de création de
diapositives dont chacune est découpée en sections contenant tour à tour des
images, des titres ou du texte.
Nous avons affaire à une construction visuelle du document, dont la lecture
repose sur des conventions culturelles de lecture.
À ce sujet, Tufte a publié un article sur les PowerPoint ...
Toutefois, l'assujetissement à l'architexte dépasse cette surcouche graphique et
concerne également la sous-couches invisibles de structuration textuelle du
texte, mais aussi tout le processus d'inscription du document sur son support et
les méthodes pour y accéder.
Comme nous l'avons précédemment, ce n'est pas l'image du texte affichée à
l'écran qui est sauvegardée et archivée mais bien une suite de caractères
binaires dont l'écriture intermédiaire est une suite de symboles, de chiffres et
de lettres.
Dans le cas de certains logiciels propriétaires, comme le logiciel Pages édité
par la firme Apple, le document n'est lisible que dans un environnement
spécifique et dédié au détriment d'autres environnements d'écriture et lecture.
Un document dont le format est `.pages` ne sera pas lisible dans un
environnement Linux ou Windows.
F. Kittler évoquait une écriture aveugle en s'appuyant sur le cas de la cécité
de Nietzsche et de sa machine à écrire lui permettant d'écrire malgré sa
condition.
À partir de cet exemple, Kittler démontre que l'écriture ne peut plus être
définie selon l'acte de lecture qui l'accompagne.
Voir la contradiction avec la controverse sur l'écriture montrée précédemment.
Ce phénomène est aussi applicable à l'ordinateur et plus largement au numérique.
Le non capacité de lecture/interprétation d'un texte par un ordinateur dans le
cas d'un document dont le format n'est pas déchiffrable n'empêche pas
l'ordinateur d'écrire à cet emplacement même.
Ajouter l'exemple de Kenneth Goldsmith.
De la même manière, le type de support sur lequel est sauvegardé une information
pose les questions d'accessiblité, de perennité, d'interopérabilité, etc...
L'exemple illustrant au mieux cette question est la disquette : qui aujourd'hui
peut lire le contenu d'une disquette ?
Reprendre Kittler sur le mode protégé et le logiciel n'existe pas sur
l'assujetissement.
L'auteur devient « usager » = sujet (assujetti) aux logiciels...
## Étude de cas : l'éditeur de texte Stylo
Dans cette deuxième partie du chapitre, nous étudions la version 3 de l'éditeur de
texte sémantique Stylo afin d'observer ce que cet outil écrit dans le texte.
Le point de vue adopté qualifie Stylo en tant qu'agent actif de l'écriture et
non plus comme un simple environnement.
La méthode appliquée à l'observation de Stylo est empruntée à F. Kittler et
consiste à décrire rigoureusement les techniques et technologies pour em
comprendre les effets sur le texte.
Lorsqu'un.e utilisateur.rice de Stylo tape du texte sur son clavier, quelles
sont les réponses que Stylo donne à ces instructions ?
### Qu'est-ce que Stylo ?
Stylo est un éditeur de texte sémantique pour l’édition scientifique en sciences
humaines. Stylo est autant un projet de recherche qu’un outil d’écriture et
d’édition, qui entend poser une question décisive : qu’est-ce qu’écrire en
environnement numérique en sciences humaines ? Les nouvelles fonctionnalités
développées et déployées au printemps 2023 sont présentées dans ce poster.
Stylo est un outil libre et open source conçu en 2017 par la Chaire de recherche du
Canada sur les écritures numériques (Vitali-Rosati et al., 2020), et soutenu depuis
2020 par la Très grande infrastructure de recherche Huma-Num.
Stylo a pour objectif de transformer le flux de travail numérique des revues savantes
en sciences humaines.
En tant qu’éditeur de texte sémantique WYSIWYM, il vise à améliorer la chaîne de
publication académique (Kembellec 2019), tout en invitant à une réflexion théorique et
pratique sur nos façons d’écrire et d’éditer.
Prendre le contrôle de son propre texte, voilà ce que permet aujourd’hui Stylo à
travers plusieurs fonctionnalités fondatrices ou toutes nouvelles qui s’inscrivent
dans le domaine des technologies de l’édition numérique (Blanc et Haute, 2018) :
balisage du texte pour une structure sémantique fine, import de données bibliographiques
structurées depuis Zotero, mots-clés contrôlés depuis plusieurs ontologies,
prévisualisation avec la possibilité d’annoter, génération de plusieurs formats (HTML,
PDF, XML ou DOCX), export respectant les standards de l’édition scientifique,
fonctions avancées de rechercher-remplacer, édition collaborative simultanée, accès aux
données via une API GraphQL, etc.
Contrairement aux outils de traitement de texte tels que Microsoft Word, Stylo
cherche à promouvoir et à encourager l’utilisation de standards ouverts
(Marcello, 2020).
Au cœur de Stylo ce sont donc les formats de balisage Markdown, de sérialisation de
données YAML ou encore de structuration de références bibliographiques BibTeX qui
offrent la possibilité de produire plusieurs formats de sortie depuis une source
unique.
Pandoc, le « couteau suisse de l’édition », génère les formats de sortie PDF
(avec l’aide de LATEX), HTML, XML-TEI ou encore DOCX
#### Grandes lignes sur Stylo
Stylo est un éditeur de texte sémantique développé pour l'écriture en sciences
humaines et sociales par la Chaire de recherche du Canada sur les écritures
numériques.
L'objectif derrière Stylo est de ...
Historiquement, Stylo est le fruit d'une discussion commencée en 2017, à
laquelle se joint officiellement Huma-Num en 2020.
#### Stylo à la CRCEN et à Huma-Num
#### Les briques logicielles
### Les formats pivots de Stylo en détail
#### La sérialisation des métadonnées en YAML
#### L'écriture en Markdown
#### La saisie des références bibliographiques en BibTeX
### Ce que Stylo permet ou non de faire
(Qu'est-ce que Stylo en tant qu'agent qui écrit ?)
Dépassement du simple rapport de force énoncé précédemment (grâce à une
transparence dans les actions de la machine et l'augmentation de la littératie
numérique)