From 8f083399cf806a132235ff784d08cf8183e30053 Mon Sep 17 00:00:00 2001 From: RochDLY Date: Mon, 19 Aug 2024 00:56:47 +0200 Subject: =?UTF-8?q?mise=20=C3=A0=20jour=20des=20billets=20sur=20la=20saisi?= =?UTF-8?q?e=20du=20texte=20dans=20un=20nouveau=20document=20et=20sur=20le?= =?UTF-8?q?=20medium=20comme=20element=20central=20de=20la=20publication?= =?UTF-8?q?=20savante?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- ...a-saisie-du-texte-dans-un-nouveau-document.html | 69 ++++++------- .../2024-08-07-l-effacement-par-remplacement.html | 68 ++++++++++++ ...e-medium-au-coeur-des-pratiques-d-ecriture.html | 114 +++++++++++++++++++++ 3 files changed, 212 insertions(+), 39 deletions(-) create mode 100644 docs/posts/2024-08-07-l-effacement-par-remplacement.html create mode 100644 docs/posts/2024-08-07-le-medium-au-coeur-des-pratiques-d-ecriture.html (limited to 'docs/posts') diff --git a/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html b/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html index d2a9dea..f6afb18 100644 --- a/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html +++ b/docs/posts/2024-05-06-la-saisie-du-texte-dans-un-nouveau-document.html @@ -65,20 +65,13 @@

Note : PB globale : quelle épistémologie du document numérique pour les publications scientifiques ?

Introduction

Lors du chapitre précédent, nous avons défini le document comme étant l’objet au coeur du processus de publication scientifique. Qu’il s’agisse des premières revues savantes datant du XVIIe siècle ou des revues numériques contemporaines, des lettres ou encore des livres, un document est nécessaire pour fabriquer (Fauchié 2024) cet objet éditorial. Ce document, dans sa forme (format, XXX) et sa struture (Zacklad, Pédauque …), dépasse son statut de simple support de l’information. Le support n’est alors plus considéré comme un élément neutre et devient, de par sa matérialité, un élément constitutif du sens accordé au message qu’il porte.

-
-

[La paragraphe qui suit sera dans le chapitre 1, pas nécessaire d’en faire un recap]

-

Pour arriver à ce postulat, nous nous sommes appuyés sur la théorie des médias et plus particulièrement sur le courant fondé par l’école de Toronto depuis McLuhan, théorie reprise par Kittler dans les années 1970 en Allemagne puis par la médiologie en France et notamment par Louise Merzeau. Chez L. Merzeau, nous retrouvons une affiliation avec la pensée de Kittler, principalement dans ses approches [déterministe /essentialiste. Retravailler sur ça, j’ai il faut confirmer l’un ou l’autre. À vérifier mais approche kittler = essentialiste et Merzeau déterministe….] sur lesquelles reposent son travail. Pour tenter de dépasser ces positions, L. Merzeau s’est notamment tourné vers les sciences de l’information et de la communication (SIC) et a développé ses recherches autour de la notion d’éditorialisation, à la fois avec le courant provenant des SIC depuis Bachimont (Bachimont, Broudoux) et les travaux sur la redocumentarisation (Zacklad, Bachimont) et avec le courant développé au Québec par M. Vitali-Rosati, plus proche des sciences humaines et de l’intermédialité montréalaise, un autre courant historique de la théorie des médias où s’y est développé depuis les lettres et les arts une approche de la relation entre les médias (Tadier, Méchoulan).

-

Malgré que L. Merzeau n’ait pu achever ses travaux, on retrouve dans les travaux les plus récents sur l’éditorialisation provenant du Canada, un dépassement de cette posture essentialiste par la mobilisation de théories provenant du post-humanisme (Hayles, Barad) … [écrire 3 lignes sur ça]

-

Puisqu’il n’est pas un simple support, nous nous intéresserons dans ce chapitre à la construction de ce document scientifique en milieu numérique. Comme cela a été énoncé dans le chapitre précédent, un document est un espace numérique délimité dans lequel sont organisées des informations selon des normes établies par les impératifs d’une chaîne de traitements, par exemple avec des protocoles de communication des documents ou encore des formats.

Ainsi, cet espace alloué physiquement dans la mémoire numérique va subir des modifications afin que l’information initiale qui y est contenue puisse être traitée et transformée en un autre objet ou transportée en un autre espace.

Les documents numériques ayant pour devenir la publication scientifique font principalement l’objet d’un traitement éditorial de l’information : saisie du texte dans un format de traitement de texte ou de texte brut, conversions dans divers formats de document, transformations du texte source selon des normes éditoriales ou à la suite d’une relecture par les pairs, publication dans un nouvel espace selon un format lié à cette action (que l’objet soit imprimé ou publié en version numérique).

Dans cette chaîne, la réalisation d’un artefact publiable, c’est-à-dire un document dans sa version finale, nécessite des interactions entre une multitude d’agents pour advenir, qu’ils soient numériques ou humains. Qu’il s’agisse de l’adaptation des références bibliographiques à une norme donnée, de l’ajout des espaces fines insécables dans le texte, de la modification ou correction de certaines sources d’information, ces étapes de l’élaboration du document ainsi que toutes les autres proviennent des interactions entre des individus et l’environnement support [zacklad_organisation_2012; Merzeau] qui produisent des traces à l’intérieur du document que nous considérons comme constitutive d’une épistémologie du document singulière. Elles sont les indices de ces interactions passées et incarnent un modèle de représentation du document et par extension de la publication scientifique concernée. Plutôt que de nous intéresser au document final tel qu’il est publié, nous nous focalisons sur les interactions qui le précèdent et sur une épistémologie du document en cours d’élaboration.

Nous consacrons ce chapitre aux premières interactions à l’origine de la publication scientifique : la saisie d’un texte. Pour ce faire, nous détaillerons la relation qu’entretiennent un auteur et un ordinateur dans cet acte d’écriture scientifique dans un environnement numérique1.

-

Ce dispositif que nous venons de décrire fait écho aux théories de l’éditorialisation (Vitali-Rosati, 2018) et de l’énonciation éditoriale (Souchier, 1998).

-

[Faire un bref rappel de ces notions]

En ce sens, l’acte d’écriture numérique n’est plus définie en tant que fruit d’une seule fonction auctoriale, mais l’est par un ensemble de fonctions éditoriales dont la fonction auctoriale fait partie.

-

Selon ce cadre théorique, et puisque notre hypothèse positionne le modèle épistémologique du document en tant que produit de l’écriture, nous pouvons nous demander quelle est la contribution de l’environnement d’écriture à ce modèle lors de la saisie d’un texte dans un document.

+

Puisque notre hypothèse positionne le modèle épistémologique du document en tant que produit de l’écriture, nous pouvons nous demander quelle est la contribution de l’environnement d’écriture à ce modèle lors de la saisie d’un texte dans un document.

Ainsi, parmi toutes les fonctions éditoriales que l’on pourrait énumérer, nous nous intéressons dans ce chapitre à la saisie du texte et à l’environnement support (Zacklad, 2012) dans lequel il s’inscrit. Lors de cette phase de l’écriture, cet environnement devient le lieu où se manifeste un trouble entre ce que l’usager à l’intention d’écrire et le document que produit la machine, qui est structuré selon les formats et protocoles implémentés à l’intérieur de l’environnement. Ce trouble nait de la rencontre entre une représentation du texte structurée graphiquement et une représentation du texte structurée par du texte, comme c’est le cas pour une page web interprétée par un navigateur et son pendant au format HTML. Notre intérêt se porte plus particulièrement sur le côté machine de cette interaction humain-machine et comment elle reçoit et traite les informations pour produire le document à travers un environnement particulier.

Afin de traiter cette problématique, nous nous appuyons dans un premier temps sur les particularités de l’écriture numérique (Bouchardon, 2014; Crozat, 2016; Souchier, 2019) et sur le fonctionnement de la machine pour illustrer, dans une deuxième partie, le rôle de médiation joué par les logiciels – entendu comme une suite d’instructions écrites – entre la saisie du texte au clavier et les traitements appliqués à ces informations, jusqu’à leur stockage dans une mémoire informatique.

Tandis que chaque environnement a ses propres modalités d’écriture que nous ne pouvons pas toutes énumérer, nous nous appuyons dans la deuxième partie de ce chapitre sur l’étude de l’éditeur de texte sémantique Stylo et les différentes représentations du texte qu’il génère. Ces représentations intermédiaires circulent entre les espaces de Stylo – client et serveur – par différents canaux et protocoles pour former, à travers une série de documents produits, une dynamique constitutive du sens de l’écriture (Merzeau, 2013) propre à cet environnement.

@@ -90,7 +83,7 @@

Le choix d’étudier Stylo comme terrain pour cette recherche découle de plusieurs raisons. Tout d’abord, il s’agit d’un éditeur moderne construit avec les technologies du Web les plus récentes. Que ce soit à travers des environnements tels que Stylo, GoogleDoc, Hedgedoc ou encore Framapad, les environnements d’écriture en ligne (Web) suscitent un certain engouement auprès des utilisateurs notamment pour leur capacité à offrir un espace de travail collaboratif en temps réel leur permettant d’écrire à plusieurs dans cet espace. La deuxième raison qui fait de Stylo un terrain opportun est l’accessiblité de son code source. Contrairement à d’autres éditeurs propriétaires comme l’est GoogleDoc, la totalité du code de Stylo est disponible en ligne, ce qui est indispensable pour notre étude. Enfin, le fait d’être impliqué dans les développements de Stylo depuis plus de deux ans m’offre une position privilégiée pour étudier cet éditeur puisque j’ai accès aux différentes phases de tests des développements, me permettant ainsi d’observer le comportement des nouvelles fonctionnalités et de les modifier. Grâce à cette position, j’ai également un accès direct à la communauté d’utilisateurs, s’élevant à un peu plus de 6000 personnes fin 2023 pour plus de 40000 documents différents.
Du fait de mon implication dans Stylo, le regard que je porte sur ce terrain n’est pas neutre et relève d’une forme de recherche-action [ajouter une référence].

Alors que chaque signe et chaque trace inscrite dans l’éditeur de texte Stylo incarne cette tension entre l’utilisateur et la machine, dont les différences de langage – naturel et machine – rend a priori toute communication directe impossible, nous analysons les différents modes de communication des informations dans Stylo pour suivre la circulation de ces traces et leur empreinte dans le document. Pour en découvrir plus sur cet entre, nous étudions cette distance à partir de la méthode employée par le théoricien des médias F. Kittler (F. Kittler, 2018; 2015), qui s’appuie d’abord sur la description du fonctionnement de la machine à écrire puis celle de l’ordinateur afin de comprendre leur implication, en tant que média, dans le phénomène qu’est l’écriture. Cette méthode implique de comprendre les comportements et les fonctionnements techniques des composants à l’oeuvre dans la machine, et cela qu’ils relèvent du matériel ou du logiciel. En conséquence, nous mobilisons de la documentation technique pour étayer notre propos et pour analyser les traces qui nous intéressent.

-

À partir de cette étude, nous verrons qu’à l’intérieur de cet entre, les traces de cette relation manifestent d’une composante aveugle de l’écriture, puisque cette dimension de l’écriture n’est pas directement visible pour l’auteur et relève alors d’une forme de déprise [sauret__2020] sur le texte, plutôt qu’une reprise en main telle que Stylo la promeut.

+

À partir de cette étude, nous verrons qu’à l’intérieur de cet entre, les traces de cette relation manifestent d’une composante aveugle de l’écriture, puisque cette dimension de l’écriture n’est pas directement visible pour l’auteur et relève alors d’une forme de déprise [sauret__2020] sur le texte où se niche une épistémologie de l’écriture.

Écrire dans un environnement numérique

Définir l’environnement où écrire

Par habitude, nous partons du présupposé que lorsque nous évoquons les mots environnement d’écriture numérique, ceux-ci sont synonymes d’un environnement d’écriture informatique et désignent la même chose. En conséquence, lorsqu’il s’agit de convoquer l’écriture numérique, nous pensons tout de suite à un ordinateur, aux claviers, aux écrans et aux pointeurs qui clignotent dans des éditeurs de texte ou dans les champs des formulaires en ligne. Avec le numérique ubiquitaire (Citton et al., 2023), ces pratiques d’écriture sont ancrées dans nos habitudes au point de ne plus les remettre en question. Les dispositifs d’écriture analogique sont ainsi renvoyés à l’état de vestiges archaïques, comme peuvent l’être les machines à écrire alors qu’elles ont été fabriquées méticuleusement par des designers et des ingénieurs et ont fait la fierté et la renommée de certaines entreprises comme Olivetti en Italie juste avant que les ordinateurs n’arrivent sur le marché. Aujourd’hui ces machines sont complètement désuètes et inutilisées depuis presque une trentaine d’années. Elles sont maintenant exposées dans des musées – entre autres au MoMA et au Centre Pompidou – et sont intégrées dans des collections permanentes ou exhibées lors des expositions en lien avec les designers qui les ont conçues2.

@@ -139,7 +132,7 @@ Du fait de mon implication dans Stylo, le regard que je porte sur ce terrain n

Cette miniaturisation est rendue possible par la gravure des transistors dans des disques de silice (wafer) plutôt que l’usage plus coûteux et instable de relais et de tubes électroniques. Un transistor est un composant électronique dont le rôle est de laisser passer ou non le courant grâce aux propriétés du semi-conducteur à partir duquel il est fabriqué. En fonction de la valeur du courant qui lui est appliqué, le résultat associé à ce courant sera 0 ou 1. Ce transistor est l’élément physique qui incarne les portes logiques (ET, OU, OUI, NON, XOR, etc.) et traitent les données. Parmi tous les traitements possibles, certains nécessitent de garder en mémoire des résultats intermédiaires pour aboutir. Ils sont alors stockés dans la mémoire vive en attendant d’être réutilisés.

Toutes ces informations traitées, qu’elles soient transformées ou mémorisées, proviennent de ce que l’on nomme des entrées. Ce sont ces entrées qui encodent les informations en chiffres. Une fois traitées, ou lorsqu’elles sont appelées par un programme, ces données transitent par les sorties. Elles font la transformation inverse et décodent les chiffres en signes interprétables.

L’encodage et le décodage des caractères accompagne toute l’histoire de l’informatique (et du numérique). Aux prémices de l’informatique, chaque matériel comportait ses propres programmes et tables d’encodage, rendant ainsi “possible” la transposition des données d’un matériel à un autre par équivalence. Cependant, dans la plupart des cas, les données ne pouvaient pas circuler entre les différents modèles d’ordinateur, ou alors au moyen de transformations fastidieuses, rendant ainsi les traitements réalisés sur les données enfermés dans des silos. La norme ASCII (American Standard Code for Information Interchange) fait son apparition dans les années 1960 pour résoudre l’enjeu d’interopérabilité de l’encodage des données. Soumise à l’American Standards Association (d’abord ASA puis ANSI) en 1961 par l’un de ses inventeurs, Bob Bemer, puis approuvée en 1963, l’ASCII permet d’encoder 128 caractères sur 7 bits. Néanmoins, ce n’est pas parce qu’un encodage est reconnue en tant que norme que son usage est effectif à l’instant même de sa reconnaissance. Il faut attendra 1968 que le président des États-Unis d’Amérique Johnson demande à ce que l’ASCII devienne la norme fédérale d’encodage des informations afin de réduire les incompatibilités au sein des réseaux de télécommunication pour qu’elle commence à se répandre. Dès 1969, tous les ordinateurs achetés par le gouvernement des États-Unis étaient compatibles avec la norme ASCII. Du côté des ordinateurs personnels, il faudra attendre le début des années 1980 pour que cette norme se répande grâce, entre autre, à son implémentation dans les ordinateurs construits par IBM. La norme X3.4:1986 en vigueur aujourd’hui, a été déposée auprès de l’ANSI en 1986. C’est à partir de cette norme que d’autres ont été développées et restent compatibles ASCII, comme c’est par exemple le cas de la norme Unicode, publiée en 1991, qui est la plus répandue de nos jours puisqu’elle encode le plus de caractères. Si ASCII contient 128 points de code, le standard Unicode permet d’en encoder plus de 149 000 sur une vingtaine de bits par point de code dans sa version 15.1 (de 2023). Afin de préserver cette compatibilité entre les normes, il est d’usage d’encoder les 128 premiers caractères de façon identique à la norme ASCII.

-

Pour pouvoir utiliser ces tables d’encodage et stocker des données dans la mémoire d’un ordinateur, les utilisateurs ont besoin d’une interface les rendant accessibles et manipulables. Ces interfaces peuvent être rangés sous l’appellation de logiciel. Il est intéressant d’introduire les logiciels et leur fonctionnement à partir du matériel composant l’ordinateur et plus particulièrement à partir de la carte mère. Les fournisseurs de carte mère incorpore généralement dans leur carte une première couche d’abstraction matérielle, un BIOS (Basic Input Output System7), flashé dans la mémoire morte de l’ordinateur et programmé pour s’exécuter lors de la mise sous tension de ce dernier. Ce que l’on appelle couche d’abstraction matérielle en informatique représente la couche logicielle qui se trouve entre la partie matérielle et le système d’exploitation. Comme son nom l’indique, la fonction principale de cette couche est de permettre la manipulation du matériel tout en faisant abstraction de celui-ci. Le BIOS, ce tout premier jeu d’instructions qu’un ordinateur réalise, est un programme propriétaire chargé d’initialiser la séquence d’amorçage (boot) de l’ordinateur, de trouver le système d’exploitation, les périphériques (a minima le clavier et l’écran) et d’opérer quelques vérifications de bon fonctionnement des composants comme c’est le cas de l’horloge temps réel qui fonctionne en tout temps, même lorsque l’ordinateur est éteint, et rythme la totalité des cycles des autres circuits. Hormis quelques rares initiatives telles que Libreboot8 et Coreboot9, des logiciels libres et open sources chargés de remplacer partiellement le BIOS propriétaire, la majorité des cartes mères sont liées à leur BIOS du fait de l’ajout par Intel, à partir de 2006, d’un sous programme nommé Management Engine (ME) qui est accompagné d’un ensemble de modules comme Boot Guard et Secure Boot dont l’objectif est de veiller à ce qu’il n’y ait pas de corruption du système d’amorçage de l’ordinateur10. Ces programmes ont sans cesse été améliorés depuis leur introduction en 2006 et, aujourd’hui, ils empêchent toute modification de cette couche logicielle, la plus basse d’un ordinateur, si celle-ci n’est pas vérifiée et validée (avec un système de clés cryptées) par la firme propriétaire/fabricante. Il ya aurait donc, au plus bas niveau d’abstraction matérielle dans un ordinateur, une imposition d’une vision de la machine aux utilisateurs réalisée par les quelques sociétés qui détiennent le monopole de la production de ce composant.

+

Pour pouvoir utiliser ces tables d’encodage et stocker des données dans la mémoire d’un ordinateur, les utilisateurs ont besoin d’une interface les rendant accessibles et manipulables. Ces interfaces peuvent être rangés sous l’appellation de logiciel. Il est intéressant d’introduire les logiciels et leur fonctionnement à partir du matériel composant l’ordinateur et plus particulièrement à partir de la carte mère. Les fournisseurs de carte mère incorpore généralement dans leur carte une première couche d’abstraction matérielle, un BIOS (Basic Input Output System7), flashé dans la mémoire morte de l’ordinateur et programmé pour s’exécuter lors de la mise sous tension de ce dernier. Ce que l’on appelle couche d’abstraction matérielle en informatique représente la couche logicielle qui se trouve entre la partie matérielle et le système d’exploitation. Comme son nom l’indique, la fonction principale de cette couche est de permettre la manipulation du matériel tout en faisant abstraction de celui-ci. Le BIOS, ce tout premier jeu d’instructions qu’un ordinateur réalise, est un programme propriétaire chargé d’initialiser la séquence d’amorçage (boot) de l’ordinateur, de trouver le système d’exploitation, les périphériques (a minima le clavier et l’écran) et d’opérer quelques vérifications de bon fonctionnement des composants comme c’est le cas de l’horloge temps réel qui fonctionne en tout temps, même lorsque l’ordinateur est éteint, et rythme la totalité des cycles des autres circuits. Hormis quelques rares initiatives telles que Libreboot8 et Coreboot9, des logiciels libres et open sources chargés de remplacer partiellement le BIOS propriétaire, la majorité des cartes mères sont liées à leur BIOS du fait de l’ajout par Intel, à partir de 2006, d’un sous programme nommé Management Engine (ME) qui est accompagné d’un ensemble de modules comme Boot Guard et Secure Boot dont l’objectif est de veiller à ce qu’il n’y ait pas de corruption du système d’amorçage de l’ordinateur10. Ces programmes ont sans cesse été améliorés depuis leur introduction en 2006 et, aujourd’hui, ils empêchent toute modification de cette couche logicielle, la plus basse d’un ordinateur, si celle-ci n’est pas vérifiée et validée (avec un système de clés cryptées) par la firme propriétaire/fabricante. Il y aurait donc, au plus bas niveau d’abstraction matérielle dans un ordinateur, une imposition d’une vision de la machine aux utilisateurs réalisée par les quelques sociétés qui détiennent le monopole de la production de ce composant.

Le BIOS est donc l’interface entre l’utilisateur et la machine qui nous permet de manipuler les différentes entrées et sorties du système, donc de gérer les périphériques, fonction que le système d’exploitation peut également réaliser une fois que la phase d’amorçage est terminée. Le système d’exploitation (OS pour Operating System), est un niveau d’abstraction supplémentaire et se retrouve à l’interface entre les applications logicielles et la couche matérielle. Un OS est composé d’un ensemble de programmes permettant la bonne gestion des ressources de l’ordinateur : mémoires, calculs, périphériques, les registres, etc. Chaque OS a un fonctionnement qui lui est propre : l’architecture des informations – l’arborescence des dossiers, l’indexation des documents et des fichiers binaires change selon l’OS utilisé –, l’ordonnancement des tâches pour le processeur ou encore l’allocation de la mémoire, etc. Malgré le fait que ça n’ait pas toujours été le cas, les applications logicielles sont maintenant installées à l’intérieur des systèmes d’exploitation et prêtes à être exécutées. Le passage par un système d’exploitation permet aux logiciels de ne plus dépendre d’un modèle particulier du hardware et d’en faire justement abstraction, les rendant ainsi opérables sur différentes machines.

Ce tour d’horizon des particularités de l’écriture numérique et de l’agencement entre logiciel et matériel dans la machine nous montre que la conception de la machine ne permet pas à un auteur d’y inscrire des signes dans sa mémoire, ni de pouvoir les consulter directement puisqu’elle lui est inaccessible à moins qu’un intermédiaire ne servent d’interface. La médiation entre une machine et un auteur se fait au moyen d’un langage compréhensible par les deux parties, que l’on assemble sous la forme d’instructions qui, une fois empaquetées, forment un logiciel. Pour symboliser la médiation du matériel par la mise en place du logiciel à l’interface de l’humain et de la machine, l’entreprise Microsoft emploie la métaphore de la fenêtre (window(s)) à travers laquelle l’usager voit le numérique, et donc l’ordinateur. Pourtant, il ne faut pas s’y méprendre, quelle que soit la fenêtre logicielle, elle ne permet d’accéder qu’à un certain nombre fini d’instructions. Alors qu’en tant qu’appareil programmable qui ne se souci pas de la signification du traitement des informations ni des résultats obtenus, l’ordinateur semble être un environnement beaucoup plus vaste que ce que cette fenêtre ne nous laisse croire (Turing, 1936). Plutôt qu’une fenêtre comme ouverture ou passage vers le numérique, il serait plus juste de considérer cette fenêtre comme une vision du monde parmi d’autres. Cette vision du monde n’est pas seulement une vision particulière que l’humain a de la machine car dans ce cas nous serions dans un paradigme anthropocentré et utilitariste de la machine. En nous déplaçant de l’autre côté de la fenêtre, on se rend compte que la vision que porte la machine sur le monde est différente de la notre : la machine incarne une autre vision du monde sous forme de matrice, où chaque élément qu’elle perçoit l’est sous forme binaire. Le monde n’est alors plus que chiffres, calculs et distances, comme c’est le cas de la proposition de K. Hayles lorsqu’elle remplace Mère Nature par une Matrice (Hayles, 2005).

Un début de relation s’instaure entre l’humain et la machine grâce à l’entremise du logiciel. À travers cette interface, lorsque l’on touche une lettre du bout du doigt, la machine devient alors accessible et l’impulsion (électrique) que cette action génère se transforme en une lettre à l’écran. Pour autant, cette accessibilité est-elle synonyme de mise en visibilité ? Le fait que “ça marche” rendrait-il le document visible ? C’est le rôle de l’interface graphique et des métaphores qu’elle véhicule que de cacher le fonctionnement même de la machine (Jeanneret, 2011). La déliaison convoquée par Bonaccorsi (Bonaccorsi, 2020) prend place dès cet instant dans le processus d’écriture puisqu’il ne s’agit pas seulement de délier le geste de l’inscription mais également de faire abstraction de tout le processus d’écriture au-delà du geste. Ainsi, le logiciel aurait une double fonctionnalité : la première est une médiation qui ouvre le dialogue avec la machine tandis que la seconde en fait abstraction et la cache, ce qui a pour effet de rendre la machine quasiment invisible à l’utilisateur. Cependant, que découvrons-nous lorsque nous retirons ce voile devant la fenêtre ? Là se dévoile un vaste écosystème constitué de formats, des protocoles et leurs flux d’informations et de documents, parfois temporaires, voyageant d’une étape à une autre, prenant forme et se transformant pour suivre un cheminement prédéfini jusqu’à la création d’un document final que l’utilisateur récupère. Chacune de ces fenêtres offre finalement une vision particulière d’un document et un modèle épistémologique qui lui est propre (Vitali-Rosati, 2018).

@@ -154,7 +147,7 @@ Du fait de mon implication dans Stylo, le regard que je porte sur ce terrain n

Initialement défini comme “écriture d’écriture” puis comme un “dispositif d’écriture écrit”, l’architexte s’avère être un point de passage obligé pour toute activité numérique. Il n’y a effectivement pas d’écriture à l’écran sans un architexte qui la rend possible, l’accompagne et la formate. Pour la première fois de son histoire, l’homme a donc recours à des “dispositifs d’écriture écrits” spécifiques pour pouvoir pratiquer une activité d’écriture (E. Souchier, 1998, 2013). Or, précisément en ce qu’ils sont “eux-mêmes écrits”, les architextes “sont des textes lisibles et interprétables. Porteurs et prescripteurs d’une écriture à venir, ils anticipent de ce fait une figure de l’auteur” (É. Candel, G. Gomez Mejia, 2013) et relèvent donc de “l’énonciation éditoriale” (E. Souchier, 1998).

-

Globalement, l’architexte incarne le cadre dans lequel les agents peuvent écrire. Il permet de faire la distinction entre un gabarit, entendu comme l’espace proposé par les éditeurs de logiciels ou applications pour écrire, et le texte saisi par l’utilisateur, c’est-à-dire le texte qui remplit le gabarit. Cet architexte, ce cadre, est régit par des règles qui définissent comment l’on peut écrire sur un support numérique mais également comment les signes à inscrire doivent être formatés.

+

Globalement, l’architexte incarne le cadre dans lequel les agents peuvent écrire. Il permet de faire la distinction entre un gabarit, entendu comme l’espace proposé par les éditeurs de logiciels ou applications pour écrire, et le texte saisi par l’utilisateur, c’est-à-dire le texte qui remplit le gabarit. Cet architexte, ce cadre, est régit par des règles qui définissent comment l’on peut écrire sur un support numérique mais également comment les caractères à inscrire doivent être formatés.

Nous l’avons vu, l’architexte se positionne en tant que médiateur entre un auteur et la machine qu’il emploie pour écrire. Jusqu’à présent, la définition de l’architexte englobe largement tous les écrits qui permettent d’écrire à l’écran. En 2019, G. Gomez-Mejia, E. Souchier et E. Candel précisent ce que sont ces méta-écritures et en dressent une typologie composée de quatre « cadres d’écrits d’écran » :