summaryrefslogtreecommitdiff
path: root/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html
diff options
context:
space:
mode:
Diffstat (limited to 'docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html')
-rw-r--r--docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html17
1 files changed, 9 insertions, 8 deletions
diff --git a/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html b/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html
index 0720470..4f5b56e 100644
--- a/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html
+++ b/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html
@@ -61,7 +61,7 @@
</header>
<div class="content">
<h2 id="introduction">Introduction</h2>
-<p>Lors du chapitre précédent, nous avons défini l’<em>intimité du chercheur</em> comme le résultat produit par les écrits savants, parmi lesquels nous retrouvons les publications scientifiques qui sont l’objet de notre recherche. Ces publications scientifiques peuvent être assimilées à des documents numériques, soit un espace délimité dans lequel sont organisées des informations selon des normes établies par les impératifs technologiques d’une chaîne éditoriale, par exemple avec des protocoles de communication des documents ou encore des formats. Dans cette chaîne, la réalisation d’un document nécessite ainsi des interactions entre une multitude d’agents pour advenir, qu’ils soient numériques ou humains. À chacune des étapes de sa constitution, ces interactions entre les agents laissent des traces à l’intérieur du document que nous considérons comme des traces de l’intimité du chercheur. Ces traces sont des indices d’une intimité passée et donc de la matérialité de cette dernière.</p>
+<p>Lors du chapitre précédent, nous avons défini l’<em>intimité du chercheur</em> comme le résultat produit par les écrits savants, parmi lesquels nous retrouvons les publications scientifiques qui sont l’objet de notre recherche. Au 21<sup>e</sup> siècle, alors que la plupart des échanges et communications passent par Internet, que ce soit avec le Web, les courriels ou les réseaux de téléphonie mobile, les publications scientifiques peuvent être assimilées à des documents numériques, soit un espace délimité dans lequel sont organisées des informations selon des normes établies par les impératifs technologiques d’une chaîne éditoriale, par exemple avec des protocoles de communication des documents ou encore des formats. Dans cette chaîne, la réalisation d’un document nécessite ainsi des interactions entre une multitude d’agents pour advenir, qu’ils soient numériques ou humains. À chacune des étapes de sa constitution, ces interactions entre les agents laissent des traces à l’intérieur du document que nous considérons comme des traces de l’intimité du chercheur. Ces traces sont des indices d’une intimité passée et donc de la matérialité de cette dernière.</p>
<p>Avec ce chapitre, nous commençons à détailler la relation qu’entretiennent un auteur et un ordinateur dans l’acte d’écriture scientifique dans un environnement numérique<a href="#fn1" class="footnote-ref" id="fnref1" role="doc-noteref"><sup>1</sup></a>.</p>
<p>Ce dispositif que nous venons de décrire fait écho aux théories de l’éditorialisation <span class="citation" data-cites="vitali-rosati_editorialization_2018">(Vitali-Rosati, 2018)</span> et de l’énonciation éditoriale <span class="citation" data-cites="souchier_image_1998">(Souchier, 1998)</span>. Ainsi, cette écriture numérique n’est plus définie en tant que fruit d’une seule fonction auctoriale, mais l’est par un ensemble de fonctions éditoriales dont la fonction auctoriale fait partie.</p>
<p>Selon ce cadre théorique, et puisque notre hypothèse positionne l’intime en tant que produit de l’écriture, nous pouvons nous demander quelle est la contribution de l’environnement d’écriture à cet intime lors de la saisie d’un texte dans un document.</p>
@@ -73,12 +73,13 @@
<p>Stylo a pour objectif de transformer le flux de travail numérique des revues savantes en SHS. En tant qu’éditeur de texte sémantique WYSIWYM, il vise à améliorer la chaîne de publication académique <span class="citation" data-cites="kembellec_lerudition_2020">(Kembellec, 2020)</span>, tout en invitant à une réflexion théorique et pratique sur nos façons d’écrire et d’éditer.</p>
<p>Prendre le contrôle de son propre texte, voilà ce que permet aujourd’hui Stylo à travers plusieurs fonctionnalités fondatrices ou toutes nouvelles – depuis la version 3.0 – qui s’inscrivent dans le domaine des technologies de l’édition numérique <span class="citation" data-cites="blanc_technologies_2018">(Blanc &amp; Haute, 2018)</span> : balisage du texte pour une structure sémantique fine, import de données bibliographiques structurées depuis l’application Zotero, mot-clés contrôlés depuis plusieurs ontologies, prévisualisation avec la possibilité d’annoter avec Hypothesis, génération de plusieurs formats (HTML, PDF, XML ou DOCX), export respectant les standards de l’édition scientifique, fonctions avancées de rechercher-remplacer, édition collaborative simultanée, accès aux données via une API GraphQL, etc. Contrairement aux outils de traitement de texte tels que Microsoft Word ou LibreOffice, Stylo cherche à promouvoir et à encourager l’utilisation de standards ouverts.</p>
<p>Au coeur de Stylo ce sont donc les formats de balisage Markdown, de sérialisation de données YAML ou encore de structuration de références bibliographiques BibTeX qui offrent la possibilité de produire plusieurs formats de sortie depuis une source unique. Stylo suit donc le principe de <em>single source publishing</em> <span class="citation" data-cites="fauchie_fabriquer_2024">(Fauchié, 2024)</span>. En s’appuyant sur Pandoc, un outil de conversion de documents désigné comme le « couteau suisse de l’édition », le module d’export de Stylo génère les formats de sortie PDF (avec l’aide de LaTeX), HTML, XML-TEI, DOCX ou encore XML compatible avec le schéma COMMONS commun à Métopes, Cairn et OpenEdition.</p>
-<p>Le choix d’étudier Stylo comme terrain pour cette recherche découle de plusieurs raisons. Tout d’abord, il s’agit d’un éditeur moderne construit avec les technologies du Web les plus récentes. Cet environnement Web suscite un certain engouement auprès des utilisateurs, notamment pour sa capacité à offrir un espace de travail collaboratif en temps réel leur permettant d’écrire à plusieurs dans cet espace. La deuxième raison qui fait de Stylo un terrain opportun est l’accessiblité de son code source. Contrairement à d’autres éditeurs propriétaires comme l’est GoogleDoc, la totalité du code de Stylo est disponible en ligne, ce qui est indispensable pour notre étude. Enfin, le fait d’être impliqué dans les développements de Stylo depuis plus de deux ans m’offre une position privilégiée pour étudier cet éditeur puisque j’ai accès aux différentes phases de tests des développements, me permettant ainsi d’observer le comportement des nouvelles fonctionnalités et de les modifier. Grâce à cette position, j’ai également un accès direct à la communauté d’utilisateurs, s’élevant à un peu plus de 6000 personnes fin 2023 pour plus de 40000 documents différents.<br />
+<p>Le choix d’étudier Stylo comme terrain pour cette recherche découle de plusieurs raisons. Tout d’abord, il s’agit d’un éditeur moderne construit avec les technologies du Web les plus récentes. Que ce soit à travers des environnements tels que Stylo, GoogleDoc, Hedgedoc ou encore Framapad, les environnements d’écriture en ligne (Web) suscitent un certain engouement auprès des utilisateurs notamment pour leur capacité à offrir un espace de travail collaboratif en temps réel leur permettant d’écrire à plusieurs dans cet espace. La deuxième raison qui fait de Stylo un terrain opportun est l’accessiblité de son code source. Contrairement à d’autres éditeurs propriétaires comme l’est GoogleDoc, la totalité du code de Stylo est disponible en ligne, ce qui est indispensable pour notre étude. Enfin, le fait d’être impliqué dans les développements de Stylo depuis plus de deux ans m’offre une position privilégiée pour étudier cet éditeur puisque j’ai accès aux différentes phases de tests des développements, me permettant ainsi d’observer le comportement des nouvelles fonctionnalités et de les modifier. Grâce à cette position, j’ai également un accès direct à la communauté d’utilisateurs, s’élevant à un peu plus de 6000 personnes fin 2023 pour plus de 40000 documents différents.<br />
Du fait de mon implication dans Stylo, le regard que je porte sur ce terrain n’est pas neutre et relève d’une forme de recherche-action [ajouter une référence].</p>
<p>Alors que chaque signe et chaque trace inscrite dans l’éditeur de texte Stylo incarne cette tension <em>entre</em> l’utilisateur et la machine, dont les différences de langage – naturel et machine – rend a priori toute communication directe impossible, nous analysons les différents modes de communication des informations dans Stylo pour suivre les traces de l’intime qui y circulent. Pour en découvrir plus sur cet <em>entre</em>, nous étudions cette distance à partir de la méthode employée par le théoricien des médias F. Kittler <span class="citation" data-cites="kittler_mode_2015 kittler_gramophone_2018">(F. Kittler, 2018; 2015)</span>, qui s’appuie d’abord sur la description du fonctionnement de la machine à écrire puis celle de l’ordinateur afin de comprendre leur implication, en tant que média, dans le phénomène qu’est l’écriture. Cette méthode implique de comprendre les comportements et les fonctionnements techniques des composants à l’oeuvre dans la machine, et cela qu’ils relèvent du matériel ou du logiciel. En conséquence, nous mobilisons de la documentation technique pour étayer notre propos et pour analyser les traces qui nous intéressent.</p>
+<p>L’observation du phénomène de création d’un document texte dans un environnement d’écriture spécialisé pour l’écriture savante à travers le prisme des strates de l’écriture numérique, du matériel au logiciel, nous permet de mettre en évidence différents angles morts dans lesquels se nichent les traces de l’intime. Qu’ils s’incarnent dans des documents temporaires comme le DOM du navigateur ou dans des protocoles de transmissions des informations comme HTTP, ces angles morts de l’écriture numérique, produit par la relation entre un auteur et une machine, nous montrent que certaines parties de cette écriture ne sont finalement pas directement accessibles à ces deux agents alors qu’elles participent à la matérialité conférée au document produit. Il y a une forme de déprise, terme que Louise Merzeau employait pour évoquer les utilisateurs des plateformes du Web et « la perte de contrôle de leurs usages, restreints et conditionnés par les algorithmes » [sauret__2020], instaurée dans cette relation et que l’auteur accepte, bon ou malgré lui, lorsqu’il utilise un environnement d’écriture numérique. En ce sens, un certain degré de confiance est accordé à l’environnement d’écriture choisi dans le processus de production de du document.</p>
<h2 id="écrire-dans-un-environnement-numérique">Écrire dans un environnement numérique</h2>
<h3 id="définir-lenvironnement-où-écrire">Définir l’environnement où écrire</h3>
-<p>Par habitude, nous partons du présupposé que lorsque nous évoquons les mots environnement d’écriture numérique ceux-ci sont synonymes d’un environnement d’écriture informatique et désignent la même chose. En conséquence, lorsqu’il s’agit de convoquer l’écriture numérique, nous pensons tout de suite à un ordinateur, aux claviers, aux écrans et aux pointeurs qui clignotent dans des éditeur de texte ou dans les champs des formulaires en ligne. Avec le numérique ubiquitaire <span class="citation" data-cites="citton_angles_2023">(Citton et al., 2023)</span>, ces pratiques d’écriture sont ancrées dans nos habitudes au point de ne plus les remettre en question. Les dispositifs d’écriture analogique sont ainsi renvoyés à l’état de vestiges archaïques, comme peuvent l’être les machines à écrire alors qu’elles ont été fabriquées méticuleusement par des designers et des ingénieurs et ont fait la fierté et la renommée de certaines entreprises comme Olivetti en Italie juste avant que les ordinateurs n’arrivent sur le marché. Aujourd’hui ces machines sont complètement désuètes et inutilisées depuis presque une trentaine d’années. Elles sont maintenant exposées dans des musées – entre autres au MoMA et au Centre Pompidou – et sont intégrées dans des collections permanentes ou exhibées lors des expositions en lien avec les designers qui les ont conçues<a href="#fn2" class="footnote-ref" id="fnref2" role="doc-noteref"><sup>2</sup></a>.</p>
+<p>Par habitude, nous partons du présupposé que lorsque nous évoquons les mots environnement d’écriture numérique, ceux-ci sont synonymes d’un environnement d’écriture informatique et désignent la même chose. En conséquence, lorsqu’il s’agit de convoquer l’écriture numérique, nous pensons tout de suite à un ordinateur, aux claviers, aux écrans et aux pointeurs qui clignotent dans des éditeur de texte ou dans les champs des formulaires en ligne. Avec le numérique ubiquitaire <span class="citation" data-cites="citton_angles_2023">(Citton et al., 2023)</span>, ces pratiques d’écriture sont ancrées dans nos habitudes au point de ne plus les remettre en question. Les dispositifs d’écriture analogique sont ainsi renvoyés à l’état de vestiges archaïques, comme peuvent l’être les machines à écrire alors qu’elles ont été fabriquées méticuleusement par des designers et des ingénieurs et ont fait la fierté et la renommée de certaines entreprises comme Olivetti en Italie juste avant que les ordinateurs n’arrivent sur le marché. Aujourd’hui ces machines sont complètement désuètes et inutilisées depuis presque une trentaine d’années. Elles sont maintenant exposées dans des musées – entre autres au MoMA et au Centre Pompidou – et sont intégrées dans des collections permanentes ou exhibées lors des expositions en lien avec les designers qui les ont conçues<a href="#fn2" class="footnote-ref" id="fnref2" role="doc-noteref"><sup>2</sup></a>.</p>
<figure>
<img src="https://www.photo.rmn.fr/CorexDoc/RMN/Media/TR1/YECPH3/07-521403.jpg" title="Machine à écrire portative" alt="Machine à écrire portative" />
<figcaption aria-hidden="true">Machine à écrire portative</figcaption>
@@ -100,7 +101,7 @@ Du fait de mon implication dans Stylo, le regard que je porte sur ce terrain n
<p>L’écriture numérique est ainsi à distinguer de l’écriture dans un environnement numérique : un ordinateur, Internet, le Web, une calcultrice ou une machine à écrire de la dernière génération. En tant qu’abstraction, l’écriture numérique est une représentation du monde donnée, dont la qualification à travers un medium permet de l’incarner physiquement et matériellement mais pas de la circonscrire. En somme, cette représentation numérique du monde n’est pas nouvelle et ce n’est pas l’ordinateur qui l’a apporté. À notre connaissance, son origine remonte aux prémisses de l’écriture et des développements des systèmes monétaires, nous dirait C. Herrenschmidt <span class="citation" data-cites="herrenschmidt_trois_2023">(2023)</span>.</p>
<p>Dorénavant, lorsque nous ferons référence à l’écriture numérique nous parlerons d’une écriture numérique dans un environnement informatique.</p>
<h3 id="les-particularités-de-lécriture-numérique">Les particularités de l’écriture numérique</h3>
-<p>Avant d’entamer une réflexion sur l’écriture numérique, convenons d’une brève définition de l’écriture, car celle-ci a fait couler beaucoup d’encre à son sujet, notamment depuis sa reconfiguration numérique au crépuscule du 20<sup>e</sup> siècle. La définir tient généralement de l’anthropologie, des lettres, de la sémiotique ou encore des sciences de l’information et de la communication ou de l’étude des médias et cela pour ne mentionner que certaines disciplines de la sphère académique. Très largement, l’écriture est entendue comme « mode d’expression » et « fonction de communication » au sein d’une société <span class="citation" data-cites="christin_origines_1999">(Christin, 1999)</span>. Anne-Marie Christin distingue deux tendances principales de l’origine de l’écriture : l’écriture selon la trace, étant soit comprise comme le signe verbal transposé sur un support soit comme la marque laissée par un corps, ou l’écriture selon le signe dans son sens étymologique d’« événement inaugural [qui] participe d’une révélation » tant qu’il s’inscrit dans un « système » tel que la disposition des entrailles d’une bête sacrifiée lors d’une cérémonie <span class="citation" data-cites="christin_origines_1999 vitali-rosati_quest-ce_2020-1">(Christin, 1999; Vitali-Rosati, 2020)</span>. À défaut de prendre parti pour l’un ou l’autre de ces paradigmes, nous pouvons retenir deux caractéristiques qui leur sont communes et que l’on retrouve dans tous types d’écriture, même numérique. Lorsque l’écriture est convoquée, elle fait appel à deux actions : l’inscription et l’interprétation. Qu’il s’agisse d’une trace ou d’un signe, retenons que l’écriture est toujours inscrite sur un support et que cette inscription fait l’objet d’une lecture et d’une interprétation. Cette association apparaît régulièrement dans les travaux qui traitent de l’environnement numérique, par exemple sous l’appellation de littératie numérique chez Milad Doueihi <span class="citation" data-cites="doueihi_grande_2011">(2011)</span> ou de lettrure chez Emmanuel Souchier <span class="citation" data-cites="souchier__2012">(2012)</span>.</p>
+<p>Avant d’entamer une réflexion sur l’écriture numérique, convenons d’une brève définition de l’écriture, car celle-ci a fait couler beaucoup d’encre à son sujet, notamment depuis sa reconfiguration numérique au crépuscule du 20<sup>e</sup> siècle. La définir tient généralement de la philosophie depuis Platon [phèdre], de l’anthropologie [Leroi-Gourhan; Goody], des lettres [Christin], de l’archéologie ou de la linguistique [Herrenschmidt], de la sémiotique [Souchier, Jeanneret] ou encore des sciences de l’information et de la communication [Bouchardon, Bachimont] ou de l’étude des médias [Kittler] et cela pour ne mentionner qu’une infime partie des textes traitant ce sujet parmi un nombre restreint de disciplines de la sphère académique. Très largement, l’écriture est entendue comme « mode d’expression » et « fonction de communication » au sein d’une société <span class="citation" data-cites="christin_origines_1999">(Christin, 1999)</span>. Anne-Marie Christin distingue deux tendances principales de l’origine de l’écriture : l’écriture selon la trace, étant soit comprise comme le signe verbal transposé sur un support soit comme la marque laissée par un corps, ou l’écriture selon le signe dans son sens étymologique d’« événement inaugural [qui] participe d’une révélation » tant qu’il s’inscrit dans un « système » tel que la disposition des entrailles d’une bête sacrifiée lors d’une cérémonie <span class="citation" data-cites="christin_origines_1999 vitali-rosati_quest-ce_2020-1">(Christin, 1999; Vitali-Rosati, 2020)</span>. À défaut de prendre parti pour l’un ou l’autre de ces paradigmes, nous pouvons retenir deux caractéristiques qui leur sont communes et que l’on retrouve dans tous types d’écriture, même numérique. Lorsque l’écriture est convoquée, elle fait appel à deux actions : l’inscription et l’interprétation. Qu’il s’agisse d’une trace ou d’un signe, retenons que l’écriture est toujours inscrite sur un support et que cette inscription fait l’objet d’une lecture et d’une interprétation. Cette association apparaît régulièrement dans les travaux qui traitent de l’environnement numérique, par exemple sous l’appellation de littératie numérique chez Milad Doueihi <span class="citation" data-cites="doueihi_grande_2011">(2011)</span> ou de lettrure chez Emmanuel Souchier <span class="citation" data-cites="souchier__2012">(2012)</span>.</p>
<p>Toutefois, l’écriture numérique diffère d’une écriture plus traditionnelle, telle que nous venons de la défnir, et se distingue notamment par trois caractéristiques que sont la calculabilité <span class="citation" data-cites="crozat_ecrire_2016">(Crozat, 2016)</span>, la variabilité <span class="citation" data-cites="bouchardon_lecriture_2014">(Bouchardon, 2014)</span> et la rupture sémiotique entre le geste d’écriture et l’inscription sur le support <span class="citation" data-cites="souchier_numerique_2019">(Souchier, 2019)</span>.</p>
<p>La première caractéristique est d’ordre computationnel : l’écriture devient calculable et peut donc faire l’objet d’instructions. Pour réaliser cette action, on procède à une équivalence où chaque signe que l’on peut inscrire dans cet environnement à son pendant unique sous forme de bits. Lorsque chaque caractère peut être identifié en tant que nombre, il devient possible d’implémenter ce modèle dans une machine et de lui demander, grâce à des instructions, d’appliquer des calculs.</p>
<p>L’exemple idéal pour illustrer cette caractéristique n’est rien de moins que la machine imaginée par Alan Turing, qu’il présente en 1936 dans son article « On Computable Numbers, with an Application to the Entscheidungsproblem » dans la section <em>Computing machines</em> <span class="citation" data-cites="turing_computable_1936">(1936)</span>. Ce que Turing décrit n’est pas une machine physique mais un modèle théorique, une machine abstraite fondamentale pour les développements futurs de l’informatique. Cette machine est constituée de plusieurs éléments :</p>
@@ -112,7 +113,7 @@ Du fait de mon implication dans Stylo, le regard que je porte sur ce terrain n
</ul>
<p>Théoriquement le ruban sur lequel la machine exécute ses programmes est infini vers la gauche et la droite et cela afin de permettre l’exécution des instructions les plus complexes. La machine de Turing ne s’intéresse pas aux résultats des instructions ni à leur signification, d’où résulte une forme d’automatisation de l’écriture. L’espace de la machine, aussi vaste soit-il, n’est composé que de séries de 0 et de 1 ainsi que de différents états, renvoyant à des instructions et permettant ainsi à la machine de modifier son propre espace. Cette capacité de modification peut être associée à la deuxième caractéristique de l’écriture numérique que S. Bouchardon nomme la variabilité.</p>
<p>Le passage du signe à l’unité atomique et discrète qu’est le chiffre signifie un changement de représentation du monde (au sens que K. Hayles donne au terme <em>worldview</em> <span class="citation" data-cites="hayles_my_2005">(2005)</span>) : le monde – ou l’espace – n’est alors plus signifié par des mots ou des concepts, mais le devient par des chiffres. Comme McLuhan nous le rappelle dans son ouvrage <em>Pour comprendre les médias</em> <span class="citation" data-cites="mcluhan_pour_1977">(1977)</span>, les alphabets composés de lettres (contrairement à ceux composés de pictogrammes) sont asémantiques. Si toutefois les alphabets sont liés à une culture d’où ils émergent, l’abstraction nécessaire pour représenter le monde sous forme de chiffres détacherait a priori cette vision de tout sens. En dehors de tout modèle mathématiques abstrait, et cela quel que soit le langage ou la base utilisée pour l’écrire, <code>3</code>, <code>trois</code>, <code>three</code>, <code>III</code>, <code>0011</code>, <code>zéro zéro un un</code>, un chiffre ne signifie pas grand chose s’il n’est pas associé à un système de valeurs particulier, par exemple le système métrique ou le système international <span class="citation" data-cites="herrenschmidt_trois_2023">(Herrenschmidt, 2023)</span>. En échange de cette perte de signification, l’écriture numérique y gagne cette particularité d’être calculable et mesurable.</p>
-<p>L’écriture numérique se distingue également des autres types d’écriture par une troisième caractéristique. Il s’agit de la première forme d’écriture où le geste d’écrire ne correspond pas à l’action d’inscription du signe sur son support, phénomène que J. Bonaccorsi nomme déliaison <span class="citation" data-cites="bonaccorsi_fantasmagories_2020">(Bonaccorsi, 2020)</span>. Lorsqu’on appuie sur une touche du clavier, par exemple la lettre <code>a</code>, cette lettre n’est pas inscrite à l’écran : l’instruction d’inscrire un signe dans la mémoire de l’ordinateur est donnée à la machine, puis celle de l’afficher à l’écran au moyen d’un logiciel particulier <span class="citation" data-cites="kittler_mode_2015 souchier_numerique_2019">(F. A. Kittler, 2015; Souchier, 2019)</span>. Néanmoins, le fait d’appuyer sur une touche du clavier lorsque l’ordinateur est sous tension ne suffit pas pour déclencher cette instruction : si aucun environnement dédié à l’écriture n’est préalablement exécuté, le fait d’enfoncer une touche ne déclenchera aucune réaction de la part de la machine. Par contre, lorsque l’on se situe dans un environnement où cette réaction est attendue, comme un éditeur de texte, la frappe d’une touche déclenchera un événement et le logiciel pourra générer l’instruction correspondant à l’action d’écrire.</p>
+<p>L’écriture numérique se distingue également des autres types d’écriture par une troisième caractéristique. Il s’agit de la première forme d’écriture où le geste d’écrire ne correspond pas à l’action d’inscription du signe sur son support, phénomène que J. Bonaccorsi nomme également déliaison <span class="citation" data-cites="bonaccorsi_fantasmagories_2020">(Bonaccorsi, 2020)</span>. Lorsqu’on appuie sur une touche du clavier, par exemple la lettre <code>a</code>, cette lettre n’est pas inscrite à l’écran : l’instruction d’inscrire un signe dans la mémoire de l’ordinateur est donnée à la machine, puis celle de l’afficher à l’écran au moyen d’un logiciel particulier <span class="citation" data-cites="kittler_mode_2015 souchier_numerique_2019">(F. A. Kittler, 2015; Souchier, 2019)</span>. Néanmoins, le fait d’appuyer sur une touche du clavier lorsque l’ordinateur est sous tension ne suffit pas pour déclencher cette instruction : si aucun environnement dédié à l’écriture n’est préalablement exécuté, le fait d’enfoncer une touche ne déclenchera aucune réaction de la part de la machine. Par contre, lorsque l’on se situe dans un environnement où cette réaction est attendue, comme un éditeur de texte, la frappe d’une touche déclenchera un événement et le logiciel pourra générer l’instruction correspondant à l’action d’écrire.</p>
<p>Ces trois caractéristiques de l’écriture numérique ne sont pas uniquement des propriétés qui s’ajoutent à l’existant et, d’une certaine manière, rendrait l’écriture plus complexe. L’écriture, nous l’avons évoqué, peut être ramenée aux actions d’inscription dans la matière et de lecture. Or, la calculabilité, la variabilité et la déliaison entre geste et inscription perturbent notre définition de l’écriture puisque l’inscription et la lecture des signes et/ou traces sur le support numérique sont des actions réalisées par la machine et ne le sont plus par l’être humain, comme le souligne F. Kittler <span class="citation" data-cites="kittler_mode_2015">(F. A. Kittler, 2015)</span>. F. Kittler poursuit sa réflexion plus loin jusqu’à soutenir, de manière provocatrice, que l’humain n’écrit plus et qu’à l’ère du numérique, c’est la machine qui écrit. À défaut de prendre cette provocation au pied de la lettre, elle ouvre la perspective d’une machine qui participe et contribue à l’écriture et, ce faisant, participerait à la production de l’intimité du chercheur.</p>
<p>Seulement, la “machine” ou l’“ordinateur” sont des appellations un peu vagues et ne rendent pas très explicite les éléments qu’elles désignent, ni ceux qui sont impliqués dans cette action d’écriture et dans cette relation intime entre humain et machine.</p>
<h3 id="la-machine-une-entité-formée-du-couple-matériellogiciel">La machine, une entité formée du couple matériel/logiciel</h3>
@@ -123,9 +124,9 @@ Du fait de mon implication dans Stylo, le regard que je porte sur ce terrain n
<p>Le premier processeur commercialisé, le processeur Intel 4004, l’a été en 1971<a href="#fn6" class="footnote-ref" id="fnref6" role="doc-noteref"><sup>6</sup></a>. Il s’agissait d’un processeur 4-bits comportant pas moins de 2300 transistors. Lors de la commercialisation de cet objet s’opère un changement radical dans la conception des ordinateurs puisque, dès lors, du fait de la miniaturisation de ce composant, les ordinateurs deviennent accessibles au grand public. En suivant la première loi de Moore, les microprocesseurs ont continué à évoluer jusqu’à atteindre le nombre de plusieurs milliards de transistors par processeur, démultipliant ainsi leur capacité de traitement des informations.</p>
<p>Cette miniaturisation est rendue possible par la gravure des transistors dans des disques de silice (<em>wafer</em>) plutôt que l’usage plus coûteux et instable de relais et de tubes électroniques. Un transistor est un composant électronique dont le rôle est de laisser passer ou non le courant grâce aux propriétés du semi-conducteur à partir duquel il est fabriqué. En fonction de la valeur du courant qui lui est appliqué, le résultat associé à ce courant sera <code>0</code> ou <code>1</code>. Ce transistor est l’élément physique qui incarne les portes logiques (ET, OU, OUI, NON, XOR, etc.) et traitent les données. Parmi tous les traitements possibles, certains nécessitent de garder en mémoire des résultats intermédiaires pour aboutir. Ils sont alors stockés dans la mémoire vive en attendant d’être réutilisés.</p>
<p>Toutes ces informations traitées, qu’elles soient transformées ou mémorisées, proviennent de ce que l’on nomme des <em>entrées</em>. Ce sont ces entrées qui encodent les informations en chiffres. Une fois traitées, ou lorsqu’elles sont appelées par un programme, ces données transitent par les <em>sorties</em>. Elles font la transformation inverse et décodent les chiffres en signes interprétables.</p>
-<p>L’encodage et le décodage des caractères accompagne toute l’histoire de l’informatique (et du numérique). Aux prémices de l’informatique, chaque matériel comportait ses propres programmes et tables d’encodage, rendant ainsi possible la transposition des données d’un matériel à un autre par équivalence. Cependant, dans la plupart des cas, les données ne pouvaient pas circuler entre les différents modèles d’ordinateur, ou alors au moyen de transformations fastidieuses, rendant ainsi les traitements réalisés sur les données enfermés dans des silos. La norme ASCII (<em>American Standard Code for Information Interchange</em>) fait son apparition dans les années 1960 pour résoudre l’enjeu d’interopérabilité de l’encodage des données. Soumise à l’<em>American Standards Association</em> (d’abord ASA puis ANSI) en 1961 par l’un de ses inventeurs, Bob Bemer, puis approuvée en 1963, l’ASCII permet d’encoder 128 caractères sur 7 bits. Néanmoins, ce n’est pas parce qu’un encodage est reconnue en tant que norme que son usage est effectif à l’instant même de sa reconnaissance. Il faut attendra 1968 que le président des États-Unis d’Amérique Johnson demande à ce que l’ASCII devienne la norme fédérale d’encodage des informations afin de réduire les incompatibilités au sein des réseaux de télécommunication pour qu’elle commence à se répandre. Dès 1969, tous les ordinateurs achetés par le gouvernement des États-Unis étaient compatibles avec la norme ASCII. Du côté des ordinateurs personnels, il faudra attendre le début des années 1980 pour que cette norme se répande grâce, entre autre, à son implémentation dans les ordinateurs construits par IBM. La norme X3.4:1986 en vigueur aujourd’hui, a été déposée auprès de l’ANSI en 1986. C’est à partir de cette norme que d’autres ont été développées et restent compatibles ASCII, comme c’est par exemple le cas de la norme Unicode, publiée en 1991, qui est la plus répandue de nos jours puisqu’elle encode le plus de caractères. Si ASCII contient 128 points de code, le standard Unicode permet d’en encoder plus de 149 000 sur une vingtaine de bits par point de code dans sa version 15.1 (de 2023). Afin de préserver cette compatibilité entre les normes, il est d’usage d’encoder les 128 premiers caractères de façon identique à la norme ASCII.</p>
-<p>Il est intéressant d’introduire les logiciels et leur fonctionnement à partir du matériel composant l’ordinateur et plus particulièrement à partir de la carte mère. Les fournisseurs de carte mère incorpore généralement dans leur carte une première couche d’abstraction matérielle, un BIOS (<em>Basic Input Output System</em><a href="#fn7" class="footnote-ref" id="fnref7" role="doc-noteref"><sup>7</sup></a>), flashé dans la mémoire morte de l’ordinateur et programmé pour s’exécuter lors de la mise sous tension de ce dernier. Ce que l’on appelle <em>couche d’abstraction matérielle</em> en informatique représente la couche logicielle qui se trouve entre la partie matérielle et le système d’exploitation. Comme son nom l’indique, la fonction principale de cette couche est de permettre la manipulation du matériel tout en faisant abstraction de celui-ci. Le BIOS, ce tout premier jeu d’instructions qu’un ordinateur réalise, est un programme propriétaire chargé d’initialiser la séquence d’amorçage (<em>boot</em>) de l’ordinateur, de trouver le système d’exploitation, les périphériques (<em>a minima</em> le clavier et l’écran) et d’opérer quelques vérifications de bon fonctionnement des composants comme c’est le cas de l’horloge temps réel qui fonctionne en tout temps, même lorsque l’ordinateur est éteint, et rythme la totalité des cycles des autres circuits. Hormis quelques rares initiatives telles que Libreboot<a href="#fn8" class="footnote-ref" id="fnref8" role="doc-noteref"><sup>8</sup></a> et Coreboot<a href="#fn9" class="footnote-ref" id="fnref9" role="doc-noteref"><sup>9</sup></a>, des logiciels libres et <em>open sources</em> chargés de remplacer partiellement le BIOS propriétaire, la majorité des cartes mères sont liées à leur BIOS du fait de l’ajout par Intel, à partir de 2006, d’un sous programme nommé <em>Management Engine</em> (ME) qui est accompagné d’un ensemble de modules comme <em>Boot Guard</em> et <em>Secure Boot</em> dont l’objectif est de veiller à ce qu’il n’y ait pas de corruption du système d’amorçage de l’ordinateur<a href="#fn10" class="footnote-ref" id="fnref10" role="doc-noteref"><sup>10</sup></a>. Ces programmes ont sans cesse été améliorés depuis leur introduction en 2006 et, aujourd’hui, ils empêchent toute modification de cette couche logicielle, la plus basse d’un ordinateur, si celle-ci n’est pas vérifiée et validée (avec un système de clés cryptées) par la firme propriétaire/fabricante.</p>
-<p>Le BIOS est donc l’interface entre l’utilisateur et la machine qui nous permet de manipuler les différentes entrées et sorties du système, donc de gérer les périphériques, fonction que le système d’exploitation peut également réaliser une fois que la phase d’amorçage est terminée. Le système d’exploitation (OS pour <em>Operating System</em>), est un niveau d’abstraction supplémentaire et se retrouve à l’interface entre les applications logicielles et la couche matérielle. Un OS est composé d’un ensemble de programmes permettant la bonne gestion des ressources de l’ordinateur : mémoires, calculs, périphériques, les registres, etc. Chaque OS a un fonctionnement qui lui est propre : l’architecture des informations – l’arborescence des dossiers, l’indexation des documents et des fichiers binaires change selon l’OS utilisé –, l’ordonnancement des tâches pour le processeur ou encore l’allocation de la mémoire. Malgré le fait que ce n’a pas toujours été le cas, les applications logicielles sont installés à l’intérieur des systèmes d’exploitation et prêts à être exécutés. Le passage par un système d’exploitation permet aux logiciels de ne plus dépendre d’un modèle particulier du <em>hardware</em> et d’en faire justement abstraction, le rendant ainsi opérable sur différentes machines.</p>
+<p>L’encodage et le décodage des caractères accompagne toute l’histoire de l’informatique (et du numérique). Aux prémices de l’informatique, chaque matériel comportait ses propres programmes et tables d’encodage, rendant ainsi “possible” la transposition des données d’un matériel à un autre par équivalence. Cependant, dans la plupart des cas, les données ne pouvaient pas circuler entre les différents modèles d’ordinateur, ou alors au moyen de transformations fastidieuses, rendant ainsi les traitements réalisés sur les données enfermés dans des silos. La norme ASCII (<em>American Standard Code for Information Interchange</em>) fait son apparition dans les années 1960 pour résoudre l’enjeu d’interopérabilité de l’encodage des données. Soumise à l’<em>American Standards Association</em> (d’abord ASA puis ANSI) en 1961 par l’un de ses inventeurs, Bob Bemer, puis approuvée en 1963, l’ASCII permet d’encoder 128 caractères sur 7 bits. Néanmoins, ce n’est pas parce qu’un encodage est reconnue en tant que norme que son usage est effectif à l’instant même de sa reconnaissance. Il faut attendra 1968 que le président des États-Unis d’Amérique Johnson demande à ce que l’ASCII devienne la norme fédérale d’encodage des informations afin de réduire les incompatibilités au sein des réseaux de télécommunication pour qu’elle commence à se répandre. Dès 1969, tous les ordinateurs achetés par le gouvernement des États-Unis étaient compatibles avec la norme ASCII. Du côté des ordinateurs personnels, il faudra attendre le début des années 1980 pour que cette norme se répande grâce, entre autre, à son implémentation dans les ordinateurs construits par IBM. La norme X3.4:1986 en vigueur aujourd’hui, a été déposée auprès de l’ANSI en 1986. C’est à partir de cette norme que d’autres ont été développées et restent compatibles ASCII, comme c’est par exemple le cas de la norme Unicode, publiée en 1991, qui est la plus répandue de nos jours puisqu’elle encode le plus de caractères. Si ASCII contient 128 points de code, le standard Unicode permet d’en encoder plus de 149 000 sur une vingtaine de bits par point de code dans sa version 15.1 (de 2023). Afin de préserver cette compatibilité entre les normes, il est d’usage d’encoder les 128 premiers caractères de façon identique à la norme ASCII.</p>
+<p>Pour pouvoir utiliser ces tables d’encodage et stocker des données dans la mémoire d’un ordinateur, les utilisateurs ont besoin d’une interface les rendant accessibles et manipulables. Ces interfaces peuvent être rangés sous l’appellation de logiciel. Il est intéressant d’introduire les logiciels et leur fonctionnement à partir du matériel composant l’ordinateur et plus particulièrement à partir de la carte mère. Les fournisseurs de carte mère incorpore généralement dans leur carte une première couche d’abstraction matérielle, un BIOS (<em>Basic Input Output System</em><a href="#fn7" class="footnote-ref" id="fnref7" role="doc-noteref"><sup>7</sup></a>), flashé dans la mémoire morte de l’ordinateur et programmé pour s’exécuter lors de la mise sous tension de ce dernier. Ce que l’on appelle <em>couche d’abstraction matérielle</em> en informatique représente la couche logicielle qui se trouve entre la partie matérielle et le système d’exploitation. Comme son nom l’indique, la fonction principale de cette couche est de permettre la manipulation du matériel tout en faisant abstraction de celui-ci. Le BIOS, ce tout premier jeu d’instructions qu’un ordinateur réalise, est un programme propriétaire chargé d’initialiser la séquence d’amorçage (<em>boot</em>) de l’ordinateur, de trouver le système d’exploitation, les périphériques (<em>a minima</em> le clavier et l’écran) et d’opérer quelques vérifications de bon fonctionnement des composants comme c’est le cas de l’horloge temps réel qui fonctionne en tout temps, même lorsque l’ordinateur est éteint, et rythme la totalité des cycles des autres circuits. Hormis quelques rares initiatives telles que Libreboot<a href="#fn8" class="footnote-ref" id="fnref8" role="doc-noteref"><sup>8</sup></a> et Coreboot<a href="#fn9" class="footnote-ref" id="fnref9" role="doc-noteref"><sup>9</sup></a>, des logiciels libres et <em>open sources</em> chargés de remplacer partiellement le BIOS propriétaire, la majorité des cartes mères sont liées à leur BIOS du fait de l’ajout par Intel, à partir de 2006, d’un sous programme nommé <em>Management Engine</em> (ME) qui est accompagné d’un ensemble de modules comme <em>Boot Guard</em> et <em>Secure Boot</em> dont l’objectif est de veiller à ce qu’il n’y ait pas de corruption du système d’amorçage de l’ordinateur<a href="#fn10" class="footnote-ref" id="fnref10" role="doc-noteref"><sup>10</sup></a>. Ces programmes ont sans cesse été améliorés depuis leur introduction en 2006 et, aujourd’hui, ils empêchent toute modification de cette couche logicielle, la plus basse d’un ordinateur, si celle-ci n’est pas vérifiée et validée (avec un système de clés cryptées) par la firme propriétaire/fabricante. Il ya aurait donc, au plus bas niveau d’abstraction matérielle dans un ordinateur, une imposition d’une vision de la machine aux utilisateurs réalisée par les quelques sociétés qui détiennent le monopole de la production de ce composant.</p>
+<p>Le BIOS est donc l’interface entre l’utilisateur et la machine qui nous permet de manipuler les différentes entrées et sorties du système, donc de gérer les périphériques, fonction que le système d’exploitation peut également réaliser une fois que la phase d’amorçage est terminée. Le système d’exploitation (OS pour <em>Operating System</em>), est un niveau d’abstraction supplémentaire et se retrouve à l’interface entre les applications logicielles et la couche matérielle. Un OS est composé d’un ensemble de programmes permettant la bonne gestion des ressources de l’ordinateur : mémoires, calculs, périphériques, les registres, etc. Chaque OS a un fonctionnement qui lui est propre : l’architecture des informations – l’arborescence des dossiers, l’indexation des documents et des fichiers binaires change selon l’OS utilisé –, l’ordonnancement des tâches pour le processeur ou encore l’allocation de la mémoire, etc. Malgré le fait que ça n’ait pas toujours été le cas, les applications logicielles sont maintenant installées à l’intérieur des systèmes d’exploitation et prêtes à être exécutées. Le passage par un système d’exploitation permet aux logiciels de ne plus dépendre d’un modèle particulier du <em>hardware</em> et d’en faire justement abstraction, les rendant ainsi opérables sur différentes machines.</p>
<p>Ce tour d’horizon des particularités de l’écriture numérique et de l’agencement entre logiciel et matériel dans la machine nous montre que la conception de la machine ne permet pas à un auteur d’y inscrire des signes dans sa mémoire, ni de pouvoir les consulter directement puisqu’elle lui est inaccessible à moins qu’un intermédiaire ne servent d’interface. La médiation entre une machine et un auteur se fait au moyen d’un langage compréhensible par les deux parties, que l’on assemble sous la forme d’instructions qui, une fois empaquetées, forment un logiciel. Pour symboliser la médiation du matériel par la mise en place du logiciel à l’interface de l’humain et de la machine, l’entreprise Microsoft emploie la métaphore de la fenêtre (<em>window(s)</em>) à travers laquelle l’usager voit le numérique, et donc l’ordinateur. Pourtant, il ne faut pas s’y méprendre, quelle que soit la fenêtre logicielle, elle ne permet d’accéder qu’à un certain nombre fini d’instructions. Alors qu’en tant qu’appareil programmable qui ne se souci pas de la signification du traitement des informations ni des résultats obtenus, l’ordinateur semble être un environnement beaucoup plus vaste que ce que cette fenêtre ne nous laisse croire <span class="citation" data-cites="turing_computable_1936">(Turing, 1936)</span>. Plutôt qu’une fenêtre comme ouverture ou passage vers le numérique, il serait plus juste de considérer cette fenêtre comme une vision du monde parmi d’autres. Cette vision du monde n’est pas seulement une vision particulière que l’humain a de la machine car dans ce cas nous serions dans un paradigme anthropocentré et utilitariste de la machine. En nous déplaçant de l’autre côté de la fenêtre, on se rend compte que la vision que porte la machine sur le monde est différente de la notre : la machine incarne une autre vision du monde sous forme de matrice, où chaque élément qu’elle perçoit l’est sous forme binaire. Le monde n’est alors plus que chiffres, calculs et distances, comme c’est le cas de la proposition de K. Hayles lorsqu’elle remplace Mère Nature par une Matrice <span class="citation" data-cites="hayles_my_2005">(Hayles, 2005)</span>.</p>
<p>Un début de relation s’instaure entre l’humain et la machine grâce à l’entremise du logiciel. À travers cette interface, lorsque l’on touche une lettre du bout du doigt, la machine devient alors accessible et l’impulsion (électrique) que cette action génère se transforme en une lettre à l’écran. Pour autant, cette accessibilité est-elle synonyme de mise en visibilité ? Le fait que “ça marche” rendrait-il le document visible ? C’est le rôle de l’interface graphique et des métaphores qu’elle véhicule que de cacher le fonctionnement même de la machine <span class="citation" data-cites="jeanneret_y_2011">(Jeanneret, 2011)</span>. La déliaison convoquée par Bonaccorsi <span class="citation" data-cites="bonaccorsi_fantasmagories_2020">(Bonaccorsi, 2020)</span> prend place dès cet instant dans le processus d’écriture puisqu’il ne s’agit pas seulement de délier le geste de l’inscription mais également de faire abstraction de tout le processus d’écriture au-delà du geste. Ainsi, le logiciel aurait une double fonctionnalité : la première est une médiation qui ouvre le dialogue avec la machine tandis que la seconde en fait abstraction et la cache, ce qui a pour effet de rendre la machine quasiment invisible à l’utilisateur. Cependant, que découvrons-nous lorsque nous retirons ce voile devant la fenêtre ? Là se dévoile un vaste écosystème constitué de formats, des protocoles et leurs flux d’informations et de documents, parfois temporaires, voyageant d’une étape à une autre, prenant forme et se transformant pour suivre un cheminement prédéfini jusqu’à la création d’un document final que l’utilisateur récupère. Chacune de ces fenêtres offre finalement une vision particulière d’un document et un modèle épistémologique qui lui est propre <span class="citation" data-cites="vitali-rosati_editorialization_2018">(Vitali-Rosati, 2018)</span>.</p>
<p>Dans la partie suivante, nous étudions le logiciel Stylo à partir de l’écran comme interface d’échange de signes entre les deux protagonistes, utilisateur et machine, puis, en dépassant cette surface, et en nous dégageant du prisme essentialiste, nous démontrerons que les différents agents d’un environnement – principalement logiciels et humain – sont des dynamiques qui, lorsqu’elles sont agencées dans une configuration particulière, co-construisent l’écriture.</p>