C’est la matière qui pense

Le cercle de la modélisation

Le cercle de la modélisation

Marcello Vitali Rosati, « Le cercle de la modélisation », C’est la matière qui pense (édition augmentée), Presses universitaires de Rouen et du Havre, Mont-Saint-Aignan, 2025, ISBN : 979-10-240-1912-3, https://ceen.univ-rouen.fr/matiere-marcello/chapitre5.html.
version 1, 18/06/2025
Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)

Le rapport entre théorie du texte et incarnation matérielle du texte en un document peut être pensé comme un cas de modélisation. En suivant la suggestion de Jean-Guy Meunier (2014, 2017), nous pouvons donc identifier trois étapes de la modélisation : un modèle théorique, un modèle formel et un modèle matériel. Selon cette approche, il y aurait d’abord une description théorique du texte, faite en langage naturel ; ensuite une formalisation de cette description en un langage non ambigu – formel justement ; et pour finir une implémentation matérielle du modèle formel.

Cette schématisation est proposée par Meunier – en se basant notamment sur les travaux de Willard McCarty (2014) – spécifiquement pour l’implémentation numérique de modèles. Le modèle formel, dans le cas spécifique d’une modélisation qui a comme but de produire une implémentation matérielle en informatique, est un modèle numérique, dans le sens qu’il est mathématique et fonctionnel. Le modèle formel, en d’autres termes, consiste à transformer le modèle théorique en une série d’entités discrètes et atomiques reliées entre elles par des fonctions calculables. Or il me semble que l’on peut garder cette description de la modélisation au-delà des implémentations informatiques : aussi quand le modèle matériel vise d’autres supports – notamment le papier.

Reprenons notre exemple précédent pour mieux expliquer cette idée. Selon le schéma de Meunier, il y aurait d’abord un modèle théoriqueElena Pierazzo se refère à cette première modélisation en l’appelant tout simplement « théorie » du texte. Voir Pierazzo (2016), p. 37 et suiv.↩︎. Dans notre premier exemple : ce texte est un distique élégiaque en grec, composé de deux vers, un hexamètre et un pentamètre.

Ce modèle théorique doit ensuite être converti en modèle formel. Dans le cadre d’un modèle formel destiné à une implémentation informatique, il faudra transformer les affirmations précédentes en unités discrètes et atomiques reliées par des fonctions. Donc par exemple : on décrira comme unité, le caractère grec, le vers, le pied, la langue et on aura ensuite des relations qui définissent les interactions possibles parmi ces unités. Cela nous permettra ensuite d’implémenter ce modèle fonctionnel en un modèle matériel.

Mais on pourrait également imaginer un modèle formel dont l’objectif est d’être implémenté dans un modèle matériel papier. Il faudra, dans ce cas aussi, expliciter de façon formelle le modèle théorique. On n’aura pas besoin de fonctions, mais toujours de définitions non ambigües pour chaque élément utilisé. Par exemple : un vers est une série de mots isolés dans une ligne. Un mot est une série de caractères dont la combinaison produit un sensLa question de savoir ce qu’est un mot n’est bien sûr ni neutre ni anodine. Les approches promues par les modèles inductifs récents sont basées sur la reconstruction d’un dictionnaire à partir de l’analyse statistique de patterns récurrents. C’est le principe du byte pair encoding. Évidemment, on pourrait se baser à l’inverse sur un système expert et commencer par une liste de mots établie a priori (un dictionnaire de la langue). L’approche inductive peut par ailleurs avoir l’avantage de faire apparaître des « structures ». Voir sur ce sujet les travaux de Juan Luis Gastaldi (2024).↩︎. On en arrive au modèle matériel qui consiste en la manifestation physique du texte. Notre épigramme sera donc quelque chose : un fichier .txt par exemple, ou un fichier .tex, ou un fichier XML-TEI, ou un texte imprimé d’une certaine manière, avec une mise en page spécifique.

Or cette description de la modélisation en trois étapes est sans doute utile pour comprendre les différents aspects impliqués dans les modèles, mais elle ne correspond pas à la réalité. En effet, aucun des modèles théorique, formel ou matériel ne peut exister en tant que tel ; ils existent seulement ensemble.

Un texte n’existe que dans sa matérialité située et c’est sa matière qui contient le sens du texte formellement structuré. Les trois modèles n’en font en réalité qu’un. Encore une fois, l’idée selon laquelle la pensée se ferait « avant » l’incarnation est complètement fausse. Cette idée, pourtant, est très courante et très présente dans le monde de la recherche en sciences humaines. Le grand chercheur imagine le modèle théorique, fait à la limite une première ébauche du modèle formel et laisse ensuite le travail « trivial » aux bras, aux mains sales qui toucheront la matière. Mais la pensée est dans la matière et la conviction du grand chercheur cache en réalité non pas une grande idée théorique que les petites mainsLe concept de « petites mains » et la mise en question de cette pyramide de valeurs ont été thématisés par Margot Mellet, en particulier dans trois de ses textes (2021, 2023, 2024).↩︎ auront ensuite du mal à implémenter, mais juste une idée floue – quand il y en a une – car ancrée sur une matérialité pauvre et mal comprise, une idée vague qui devra ensuite être précisée par les petites mains en question qui feront, elles, le travail de théorisation – dont le chercheur prendra à la fin le mérite, si c’est une réussite, ou pour lequel il blâmera les petites mains, si c’est un échec.

Il n’y a pas de sens en dehors de la matière. Encore une fois : c’est la matière qui pense.

La théorie se développe en manipulant la matière ; le modèle théorique émerge lorsqu’on se heurte à une balise que l’on ne peut pas imbriquer, à un format qui exprime un concept particulier d’une manière spécifique et qui révèle ainsi l’incompatibilité logique et formelle entre deux visions du texte, à la disposition des lignes dans une page et des mots dans une ligne pour éviter une veuve ou une orpheline, à la facture d’une police de caractères qui ne permet pas de voir la différence entre un esprit et un accent (en grec).

Un modèle théorique riche est celui qui émerge d’une longue manipulation. C’est la manipulation de la matière textuelle – qu’elle soit numérique ou papier – qui fait voir les différents détails, les cas particuliers, les exceptions, les incompatibilités, les contradictions, les implications profondes. C’est cette manipulation qui précise le modèle formel en délinéant les unités atomiques et les relations qui les lient. Un modèle théorique qui ne passe pas par la matière est en réalité un modèle théorique qui émerge d’une manipulation paresseuse et trop rapide. La théorie abstraite est juste une théorie très pauvre. Et pourtant, combien de fois entend-on des phrases comme : « moi, je m’occupe de la partie intellectuelle, le reste je l’ai laissé à l’ingénieur ». Voilà, cette « partie intellectuelle » est simplement une manipulation paresseuse qui produit une théorie vague, une pensée simpliste qui sera ensuite complexifiée, étoffée, enrichie par l’ingénieur qui fera le vrai travail théorique, celui qui consiste à laisser parler la matière pour essayer de comprendre comment elle pense.

Cette affirmation est difficile à démontrer et elle est surtout très difficile à expliquer à ceux et celles qui n’ont jamais fait ce type de travail. Mais elle apparaîtra comme évidente pour « les petites mains ».

Un exemple pourra aider à mieux saisir ce que j’essaie d’exprimer. L’histoire de la création du PressoirVoir Fauchié et al. (2023). Le Pressoir est par ailleurs utilisé pour produire ce livre et les livres de la collection « De code et de plomb » qui l’accueille.↩︎ au sein de la Chaire de recherche sur les écritures numériques à l’Université de Montréal. Le Pressoir est un générateur de sites statiques pensé pour produire des livres savants augmentés – surtout en sciences humaines.

L’histoire commence en 2013, justement, avec une idée vague et un projet de collection aux Presses de l’Université de Montréal : la collection « Parcours numériques » proposée par Michael Sinatra et moi-même. L’idée vague, ou pour employer la terminologie utilisée ici, le modèle théorique initial, est d’avoir une collection avec une double version : papier et numérique. La problématique qui nous animait était de comprendre les relations possibles entre édition numérique et édition papier. Nous essayions de comprendre quel allait être le futur du livreVoir « Le futur du livre » : https://blog.sens-public.org/marcellovitalirosati/le-futur-du-livre/.↩︎ à une époque où la discussion était particulièrement polarisée : d’une part, les « progressistes » qui envisageaient un « passage » total au numérique, en considérant les environnements numériques comme « meilleurs », plus expressifs et plus puissants et, de l’autre, les « réactionnaires » qui faisaient l’éloge du papier en voyant dans le numérique un appauvrissement ou du moins une menace pour la riche tradition du papier.

L’intuition à la base de notre démarche était d’imaginer au contraire une complémentarité entre les deux modèles en essayant d’identifier les caractéristiques, les forces et les faiblesses de l’un et de l’autre, et en les mettant en dialogue au lieu de les mettre en compétition. Le papier devait épouser une des caractéristiques que le support semble mieux implémenter, à savoir la linéarité.

Comme le remarque notamment Christian Vandendorpe (1999), différents supports sont caractérisés par un niveau différent de linéarité. À partir d’un support très linéaire, comme le papyrus, fait pour être déroulé en rendant très peu ergonomique un aller-retour entre diverses parties du texte, en passant par le codex, dont la structure en pages avec une numérotation permet une certaine indexation – une table des matières et des index qui rendent possible de sauter d’un passage à l’autre –, jusqu’à l’hypertexte qui est pensé – à partir d’intuitions comme celle du memex de Vannevar BushBush (1945), Nelson (1965) et Mille (2014) pour une histoire du memex et de son rapport avec le web.↩︎ – pour permettre une tabularité très poussée. L’« intertextualité », si on veut l’appeler ainsi, des hypertextes est loin d’être une idée abstraite et vague de « liens » entre les textes, elle est matérielle, elle est faite d’hyperliens qui permettent concrètement de transformer des passages de texte ou des mots en unités atomiques auxquelles le lien peut se référer. Cette matérialité peut déjà être identifiée dans les premières idées de Bush, qui propose la notion de lien à partir des possibilités techniques qu’il connaissait en 1945 : des microfilms, lus par une machine, avec la possibilité mécanique d’enregistrer une position spécifique du lecteur pour pouvoir ensuite la rappeler. Cette idée matérielle changera ensuite de forme ; en HTML, une balise – un <span>texte</span> – peut avoir un identifiant qui est exprimé en tant qu’attribut – par exemple, <span id="1">texte</span> auquel le lien peut se référer – avec une syntaxe du type <a href="#1">texte du lien</a>. Une référence de ce type est matériellement impossible dans un support papier – du moins dans les syntaxes normalement utilisées. Un index peut se référer à une page, mais non à un mot.

À partir de ce constat – loin d’être désincarné, même s’il se fonde sur une manipulation textuelle très superficielle, qui ne rentre pas dans les milliers de détails possibles, mais qui se limite à regarder la matérialité d’une des macrostructures du format HTML et du format « livre papier » –, l’idée de « Parcours numériques » était d’avoir, pour chaque livre, une version linéaire et une version tabulaire. La version linéaire devait essayer de radicaliser l’idée de linéarité : le papier n’aurait pas contenu toutes les structures tabulaires qu’il contient normalement, comme les notes de bas de page, les références bibliographiques et l’appareil critique en général, justement parce que ces structures sont peu adaptées au support. La version numérique, au contraire, devait radicaliser l’idée de tabularité en multipliant les renvois infratextuels, l’ajout d’appareil critique, la mise à disposition de parcours de lecture alternatifs.

Le pari était de proposer non pas deux versions alternatives, mais deux versions complémentaires, permettant une double lecture. Une qui permette de saisir la thèse du livre en suivant une argumentation linéaire – comme un roman – et l’autre qui suggère une lecture d’étude et d’approfondissement d’un sujet, en laissant les thèses et l’argumentation du livre sur le fond.

Exemple de livre au sein de la collection « Parcours Numériques »

Crédits : Parcours Numériques, Presses de l’Université de Montréal

Dans la collection « Parcours Numériques » des Presses de l’Université de Montréal, nous publions les livres en accès libre aussi bien dans leurs versions web (partie supérieure de l’image) que dans leurs versions PDF (partie inférieure de l’image), permettant deux modes de lecture différents – et complémentaires ? – des ouvrages.

Source

Mais ces deux modèles théoriques du texte, justement parce que basés sur une analyse légère des modèles matériels, restaient très pauvres. L’idée a commencé à se préciser lors des premières implémentations – pour la version numérique, la construction d’une plateforme réalisée avec le CMS Spip par Aurélie Veyron-ChurletNous avions considéré d’autres possibilités, dont Scalar, une plateforme créée dans le but de produire des livres augmentés. Mais les contraintes des autres plateformes s’adaptaient mal à notre idée initiale et la possibilité de personnaliser Spip avait semblé nous donner plus de liberté.↩︎ ; pour la version papier, la réalisation des premiers livres, leur mise en page, le travail avec les auteurs pour imaginer avec eux un texte savant sans appareil critique.

Concentrons-nous sur la version numérique. L’usage de Spip était une manière de déléguer le modèle théorique aux possibilités d’implémentation proposées par ce CMSCMS – évidemment avec un travail d’adaptation. Spip fonctionne avec une base de données relationnelle assez classique, sur le principe de la plupart des CMS des années 2000. Le balisage infratextuel est assez limité, car justement l’implémentation en base de données relationnelle n’est pas compatible avec la structure à arbre typique, par exemple, d’un document XML.

La collection a vu le jour et les premiers livres ont été publiés en 2014. En éditant les textes augmentés, en collaboration avec Hélène Beauchef, l’éditrice qui s’occupe de la version numérique, nous avons vite réalisé que le modèle théorique que Spip nous proposait était trop pauvre : nous nous sommes heurtés aux caractéristiques figés du modèle matériel que nous avions adopté. C’est là que nous avons réalisé que la seule manière de développer un modèle théorique riche pour un « livre augmenté » était de commencer à toucher à la matérialité du texte, à bricoler, à mettre, donc, la main à la pâte.

En même temps, nous avons lancé un projet éditorial parallèle, les « Ateliers de [sens public] » avec une idée semblable qui aurait pu ensuite être mutualisée pour la collection des « Ateliers » et pour celle de « Parcours numériques ». Le travail, initié avec Hélène Beauchef, Servanne Monjour et Nicolas Sauret, a débuté en repartant d’un balisage textuel flexible, qui nous permettait, au fur et à mesure, de spécifier les structures formelles dont nous avions besoin. Le choix des formats Markdown (pour le texte), YAML (pour les métadonnées) et BibTeX (pour la bibliographie) a semblé une bonne piste. La combinaison de ces trois formats est largement utilisée en sciences humaines, en particulier par une large communauté qui s’est créée autour du convertisseur Pandoc. Il est intéressant de remarquer que Pandoc a été créé par John McFarlane, un philosophe qui l’a précisément développé pour répondre à ses propres besoins de gestion du texte, des besoins proches des nôtres, nous qui voulions justement modéliser des textes en sciences humaines.

Markdown a donc été utilisé avec l’idée de se servir de Pandoc comme convertisseur pour produire du HTML. La syntaxe Markdown est ainsi employée dans sa version pandoc flavored. Cela permet notamment de créer des classes ad hoc pour baliser des contenus, classes qui sont ensuite transformées en classes HTML. YAML permet de créer des métadonnées qui s’expriment avec une structure de type clé-valeur – par exemple titre: Texte du titre. C’est une syntaxe très légère, excellente pour la modélisation, car on peut créer n’importe quel jeu de métadonnées tout simplement en écrivant du plein texte. S’il est besoin d’une clé de plus, on n’a qu’à l’ajouter.

Nous avons pu commencer à préciser notre modèle théorique en définissant dans le texte des structures qui devaient être indexées, en produisant des modèles formels pour définir les « contenus additionnels », etc.

Notre possibilité de modélisation était fortement liée à nos connaissances informatiques : nous n’arrivions à imaginer que les possibilités que nous étions concrètement capables d’implémenter. Au début, notre littératie était assez limitée. Nous avons commencé avec des scripts Bash qui mettaient ensemble une série de logiciels de bas niveau, comme awk, sed ou un préprocesseur comme PPhttps://github.com/CDSoft/pp.↩︎ qui permettait d’appliquer certaines macros à la syntaxe du Markdown, ainsi qu’un gabarit de mise en forme, créé par Edward Tufte et implémenté par Dave LiepmannVoir https://www.daveliepmann.com.↩︎.

Notre idée de ce que devait être le texte augmenté et notre modèle théorique étaient directement issus de la matérialité de ces formats et logiciels, et ils évoluaient au fur et à mesure que nos compétences de manipulation augmentaient.

Finalement, le script Bash a été transformé en un script Python, bien plus complexe. Un développeur, David Larlet, a rejoint l’équipe, ainsi qu’un certain nombre de doctorants – parmi lesquels Antoine Fauchié et Roch Delannay. Les capacités de manipulation et l’expérience de traitement d’un nombre de publications croissant nous a permis, à chaque itération, de complexifier le modèle, jusqu’à arriver à un livre augmenté qui pouvait être considéré comme généralisable. Ce n’était plus le modèle qui pouvait fonctionner pour le cas particulier de livre que nous étions en train de publier, mais un modèle théorique qui pouvait décrire une série assez large de livres augmentés. Un modèle théorique qui pouvait donc être partagé, car il décrivait un artefact bien spécifié, formalisé, à la structure claire et réutilisable.

Le Pressoir – Documentation du projet

La documentation du Pressoir, qui en explicite le modèle théorique et en formalise les spécificités textuelles.

Crédits : Hélène Beauchef, Roch Delannay, Antoine Fauchié, David Larlet, Margot Mellet, Servanne Monjour, Nicolas Sauret, Michael Sinatra, Marcello Vitali-Rosati

Source

Qui a conçu ce modèle théorique ? Qui a produit le sens ? Qui a pensé ? Cette idée a émergé dans le travail collectif de manipulation de formats, outils, langages de programmation, textes numériques particuliers, protocoles de versionnage, algorithmes, etc. Ce qui est à l’origine de l’émergence du modèle théorique n’est pas une personne, mais une série de dynamiques complexes qui comprennent des échanges, des formations, la prise en main d’outils et d’environnements numériques particuliers, la collaboration au sein d’un laboratoire dans lequel joue aussi un rôle fondamental la matérialité de l’institution, avec ses spécificités, ses lieux, ses caractéristiques économiques, culturelles, techniques, etc.Mellet parle du café, par exemple : https://blank.blue/conf/crihn/.↩︎ La théorie n’est pas venue d’un individu qui pense, mais elle a émergé des caractéristiques physiques de la matière. Encore une fois : c’est la matière qui pense.

Accepter l’impossibilité de séparer les trois étapes de la modélisation et surtout d’imaginer une hiérarchie qui mettrait le modèle théorique au-dessus – du point de vue de sa valeur symbolique – du modèle formel et du modèle matériel a trois conséquences majeures, deux qui concernent spécifiquement la théorie du texte et la théorie de l’édition, et une dernière qui a une portée plus large que l’on peut facilement caractériser de métaphysique.

En premier lieu, comme nous l’avons vu, il n’est pas possible d’imaginer la réduction de la multiplicité des modèles à une unité. Dit autrement, il n’est pas possible de se poser, avec DeRose et al. (1990), la question What is text, really ? Ce fameux article de 1990 a été l’un des points de départ du XML, en proposant l’idée du texte comme Ordered Hierarchy of Content Objects (OHCO). Or, si cette idée et son implémentation dans les différents langages XML sont sans doute une interprétation très riche de ce que peut être un texte et si cette même idée répond à des besoins herméneutiques communs à plusieurs approches de lecture en sciences humaines, elle ne peut pas être considérée comme la seule possible ni la meilleure. Elle est, elle aussi, située et contextuelle. Comme nous l’avons montré, certaines conceptions du texte ne peuvent y être réduites.

Une deuxième conséquence de nos considérations peut être aussi comprise comme une critique de l’approche de De Rose et, plus précisément, de l’idée qu’il est nécessaire, pour produire un modèle théorique riche du texte, de séparer sa structure sémantique de ses caractéristiques présentationnelles. Selon cette idée, la force des approches OHCO serait le fait de se concentrer sur le sens du texte et d’ignorer l’incarnation matérielle de ce sens dans une forme particulière. C’est l’idée notamment de séparer de manière nette le balisage sémantique du traitement présentationnelCette possibilité peut évidemment être questionnée : c’est ce que fait Christophe Schuwey dans son livre Interfaces (2019) où on se concentre sur la façon dont les dispositifs qui permettent l’interaction matérielle avec le texte affectent son sens. C’est aussi la question que pose Elena Pierazzo en réfléchissant sur les limitations du modèle OHCO (2016, p. 61 et suiv.).↩︎. D’un côté des balises qui expriment ce que le texte signifie, de l’autre un dispositif qui permet de « rendre » ce sens avec une incarnation graphique. Pour donner un exemple : on peut exprimer qu’une série de caractères constitue un titre de niveau 1 – par exemple, avec la balise HTML &lt;h1&gt; – et ensuite traiter cette information de manière graphique ailleurs – par exemple, dans un fichier CSS qui nous dira qu’il faut mettre ce titre en gras et dans une police de caractère plus grande. Cette approche est sans doute d’un grand intérêt. Elle est une bonne modélisation. Comme tous les modèles, elle permet de délimiter et définir précisément le geste d’interprétation en incluant certains aspects et en en excluant d’autres. Mais elle n’est pas la seule légitime. Il serait en effet tout aussi légitime de se concentrer sur l’aspect graphique comme aspect signifiant. C’est ce qui arrive, par exemple, lorsqu’on réalise une édition diplomatique. Cela est évidemment possible en restant dans une approche OHCO, et il y a notamment des spécifications de schémas XML qui se concentrent sur ces aspects. Toutefois, et c’est le plus important, il ne faut pas se leurrer et croire que la séparation du balisage en sémantique et présentationnel corresponde à une véritable séparation d’un sens immatériel par rapport à une incarnation matérielle de ce sens en un rendu quelconque. Car le balisage sémantique est lui aussi une incarnation située et présentationnelle du texte. Lorsqu’on manipule les balises, de fait, on manipule un artefact matériel, avec une syntaxe spécifique, avec des mises en forme de cette syntaxe qui souvent ne sont que présentationnelles – que l’on pense à l’indentation, par exemple, sans laquelle la syntaxe XML n’aurait aucun sens, du moins pour une personne qui essayerait de la produire ou de la lire.

Même l’approche OHCO est donc fortement matérielle. Il ne s’agit pas d’une structure abstraite. Pour être plus précis : le sens du mot « abstraction » est toujours relatif. Faire abstraction signifie mettre entre parenthèses un aspect que l’on ne veut pas considérer, justement pour pouvoir se concentrer sur la manipulation des autres aspects matériels qui nous intéressent et qui risqueraient de rendre trop complexe notre manipulation du texte. L’abstraction, loin d’être une tentative de saisir l’immatérialité, est un effort qui permet d’accroître la matérialité des éléments sur lesquels on se concentre en rendant possible le fait que leur matérialité se révèle de manière encore plus forteUne idée semblable est formulée par Matteo Pasquinelli qui affirme (2023, p. 38) : « Abstraction always operates within given material constraints and through them » (L’abstraction opère toujours à l’intérieur de contraintes matérielles données et à travers elles ; ma traduction).↩︎.

Références
Alessi, Robert. 2020. « Ekdosis: Using LuaLaTeX for producing compliant critical editions and highlighting parallel writings. Special Issue on Collecting, Preserving, and Disseminating Endangered Cultural Heritage for New Understandings through Multilingual Approaches ». Journal of Data Mining & Digital Humanities. https://hal.archives-ouvertes.fr/hal-02779803.
———. 2021. « The ekdosis package. Typesetting TEI-xml compliant Critical Editions ». https://ctan.org/pkg/ekdosis.
Archibald, Samuel. 2008. « Le texte et la technique : la lecture à l’heure des nouveaux médias ». Thèse de doctorat, Montréal: Université du Québec à Montréal. http://www.archipel.uqam.ca/902/1/D1635.pdf.
———. 2009. Le texte et la technique : La lecture à l’heure des médias numériques. Le Quartanier.
« Ateliers / lankes · GitLab ». 2020. GitLab. https://framagit.org/ateliers/lankes.
Barad, Karen. 2007. Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning. Second Printing edition. Durham: Duke University Press Books.
Barthes, Roland. 1993. Le bruissement de la langue. Paris: Seuil.
Braidotti, Rosi. 2013. The posthuman. Cambridge ; Malden: Polity Press.
Bush, Vannevar. 1945. « As We May Think ». Atlantic Magazine. http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/.
Debouy, Estelle. 2021. « Édition critique numérique avec le logiciel ekdosis pour LuaLaTeX. L’exemple des fragments latins d’atellanes ». Humanités numériques, nᵒ 4. https://doi.org/10.4000/revuehn.2509.
DeRose, Steven J., David G. Durand, Elli Mylonas, et Allen H. Renear. 1990. « What is text, really? » Journal of Computing in Higher Education 1 (2): 3‑26. https://doi.org/10.1007/BF02941632.
Derrida, Jacques. 1968. « La pharmacie de Platon ». Tel Quel, nᵒ 32,33.
Di Teodoro, Francesco Paolo. 2019. « Vetruvio architecto mecte nella sua op(er)a d’architectura che lle misure dell’omo [...]: filologia del testo e inciampi vitruviani nel foglio 228 di Venezia ». In Leonardo da Vinci l’uomo modello del mondo, édité par Annalisa Perissa Torrini, 35‑41. Cinisello Balsamo: Silvana Editoriale.
———. 2023. « Leonardo e Vitruvio: de homine bene figurato” ». Achademia Leonardi Vinci 3 (3): 33‑62. https://doi.org/10.6093/2785-4337/10620.
Fauchié, Antoine, Roch Delannay, Michael Sinatra, et Marcello Vitali-Rosati. 2023. « Exploring New (Digital) Publishing Practices with Le Pressoir ». Pop! Public. Open. Participatory, nᵒ 5 (septembre). https://doi.org/10.54590/pop.2023.006.
Friedrich, Bretislav, et Dudley Herschbach. 2003. « Stern and Gerlach: How a Bad Cigar Helped Reorient Atomic Physics ». Physics Today 56 (12): 53‑59. https://doi.org/10.1063/1.1650229.
Garin, Eugenio. 1958. L’umanesimo italiano. Filosofia e vita civile nel Rinascimento. Bari: Laterza.
Gastaldi, Juan Luis, John Terilla, Luca Malagutti, Brian DuSell, Tim Vieira, et Ryan Cotterell. 2024. « The Foundations of Tokenization: Statistical and Computational Concerns », novembre. https://doi.org/10.48550/arXiv.2407.11606.
Gros, Pierre, Paolo Clini, et Daniela Amadei. 2013. « Vitruvio e Leonardo, le geometrie platoniche “nell’uomo dalla bella forma” (De Architectura III, 1, 2-3) ». In. Florence: Giunti. https://iris.univpm.it/handle/11566/128680.
Hayles, Katherine. 1999. How we became posthuman : virtual bodies in cybernetics, literature, and informatics. Chicago: University of Chicago Press.
Kristeva, Julia. 1969. [Séméiôtiké]. Paris: Seuil.
Lugli, Emanuele. 2019. « In cerca della perfezione. Nuovi elementi per l’Uomo vitruviano di Leonardo da Vinci ». In Leonardo e Vitruvio. Oltre il cerchio e il quadrato, édité par Francesca Borgo, 69‑91. Venise: Marsilio.
McCarty, Willard. 2014. Humanities Computing. Paperback edition. Basingstoke: Palgrave Macmillan.
Mellet, Margot. 2021. « Manifeste des petites mains ». Blank.blue. https://blank.blue/meditions/manifeste-des-petites-mains/.
———. 2023. « Les petites mains de l’édition. Réflexion pour des environnements éditoriaux équitables, pluriels et inclusifs ». In Communication scientifique et science ouverte, édité par Annaïg Mahé, Ingrid Mayeur, Elsa Poupardin, et Camille Prime-Claverie, 103‑20. Louvain-le-Neuve: De Boeck Supérieur. https://doi.org/10.3917/dbu.annai.2023.01.0103.
———. 2024. « … et les doigts d’écrire se referment sur la paume. Recherche-Création sur l’épaisseur de l’écriture ». Thèse de doctorat, Montréal: Université de Montréal.
Meunier, Jean-Guy. 2014. « Humanités numériques ou computationnelles : Enjeux herméneutiques ». Sens Public, décembre. https://doi.org/10.7202/1043651ar.
———. 2017. « Humanités numériques et modélisation scientifique ». Questions de communication, nᵒ 31 (septembre): 19‑48. https://doi.org/10.4000/questionsdecommunication.11040.
Mille, Alain. 2014. « D’Internet au web ». In Pratiques de l’édition numérique, édité par Marcello Vitali-Rosati et Michael Sinatra, 31‑48. Montréal: Presses de l’Université de Montréal.
Nelson, T. H. 1965. « Complex Information Processing: A File Structure for the Complex, the Changing and the Indeterminate ». In Proceedings of the 1965 20th National Conference, 84‑100. ACM ’65. New York: ACM. https://doi.org/10.1145/800197.806036.
Pasquinelli, Matteo. 2023. The Eye of the Master: A Social History of Artificial Intelligence. Londres ; New York: Verso.
Pierazzo, Elena. 2016. Digital Scholarly Editing: Theories, Models and Methods. Londres: Routledge. https://doi.org/10.4324/9781315577227.
Salvi, Paola, éd. 2012. Approfondimenti sull’Uomo vitruviano di Leonardo da Vinci: atti delle giornate di studi, Accademia di Belle Arti di Brera, Sala Napoleonica, 9 febbraio 2010, 4 - 5 maggio 2011. Poggio a Caiano: CB Edizioni.
———. 2020. « L’Uomo vitruviano: il piede, il centro del corpo, il dibattito Bossi/Verri e una copia di Andrea Appiani ». In Leonardo da Vinci e l’Accademia di Brera7, édité par Paola Salvi. Cinisello Balsamo: Silvana Editoriale.
Schuwey, Christophe. 2019. Interfaces: L’apport des humanités numériques à la littérature. Neuchâtel: LIVREO ALPHIL.
Sperberg-McQueen, CM. 1991. « Text in the Electronic Age: Texual Study and Textual Study and Text Encoding, with Examples from Medieval Texts ». Literary and Linguistic Computing 6 (1): 34‑46. https://doi.org/10.1093/llc/6.1.34.
« Tufte CSS ». s. d. Consulté le 4 octobre 2024. https://edwardtufte.github.io/tufte-css/.
« Tufte-LaTeX ». s. d. Consulté le 4 octobre 2024. https://tufte-latex.github.io/tufte-latex/.
Vandendorpe, Christian. 1999. Du papyrus à l’hypertexte: essai sur les mutations du texte et de la lecture. Paris: La Découverte.
Wolfe, Cary. 2010. What is posthumanism? Posthumanities series, v. 8. Minneapolis: University of Minnesota Press.