Abstracts/Résumés

Transcription

Abstracts/Résumés
Dpt. de Mathématiques et d'Histoire des Sciences
Centre de recherches historiques :
Histoire des pouvoirs, savoirs et sociétés
Histoire et épistémologie des savoirs et des pratiques
scientifiques autour des ordinateurs: Abstracts/Résumés
Journée d'étude, 4 novembre 2010, Jeudi de 10h30 à 16h30, Bâtiment A, salle 148
Organisation: Maarten Bullynck
http://ufr6.univ-paris8.fr/Math/sitemaths2/spip/spip.php?article133
Programme
- Liesbeth De Mol (CLWF, Université de Gand) : Sensing computers. Developing mathematics from man-computer
collaborations in the early years of computing
- Sandra Mols (PratiScienS, Archives H. Poincaré, Université Nancy 2 ; MSH Lorraine) : Curing computers and
becoming computer experts ?
- Franck Varenne (Université de Rouen & GEMASS) : Le tournant de la programmation orientée objets dans les
sciences empiriques
- Martin Carlé (Université d’Athènes; Humboldt-Universität zu Berlin): Logical branching in early Greek music theory
& its metaphysical recall by the computer
Descriptif de la journée: La journée d'étude veut ouvrir une perspective historique et épistémologique sur l'émergence
et le développement des savoirs et pratiques scientifiques qui naissent avec l'utilisation des ordinateurs dans les sciences
depuis 1946. Au lieu de considérer les ordinateurs comme des machines en et pour soi, comme des instruments avec
lesquels l'interaction est uni-directionelle et uni-dimensionnelle, on veut étudier et comprendre l'ordinateur comme un
des éléments actifs d'un environnement, où les machines, ingénieurs, programmeurs, scientifiques etc. interagissent et
doivent s'engager dans un dialogue. C'est là, dans de tels environnements, que la négociation sur les savoirs et pratiques,
surgissant entre homme et machine, a lieu.Partant d'une telle perspective, on espère échapper aux séries successives de
réductions phénoménologiques qui s'effectuent dans l'utilisation des ordinateurs, où, en fin de compte, l'utilisateur et
l'ordinateur sont souvent coincés dans les rôles prédéfinis d'une interface conçue sur mesure à partir des besoins
pressentis. La journée d'étude veut rassembler des chercheurs qui ont travaillé sur des reconstructions de pratiques et de
savoirs dans les environnements ordinateur-hommes afin de clarifier et comprendre plus profondément ce qui se passe
une fois que l'ordinateur entre sur la scène des sciences, ou plus généralement
encore, sur la scène de l'histoire.
Description of the workshop: The workshop wants to open up a historic and epistemological perspective on the
emergence and development of the use of the computer within the sciences (from 1946 till now). Instead of considering
the computer as a machine an und für sich, as an instrument with which interaction is one-directional and onedimensional, we want to study and understand the computer as one of the elements of an environment in which
machines, engineers, programmers, scientists etc. meet, talk and have to engage in on a dialogue. It is in these
environments that the negociations over the practices and the kinds of knowledge arising around the computer take
place. By starting from this perspective, we hope to escape the series of successive phenomenological reductions that
occur in the use of the computer, where, eventually, the computer and the user are often pushed into predefined roles of
a task-oriented interface. The workshop wants to bring together researchers that have worked on the reconstruction of
practices and knowledge in man-computer environments to clarify and understand more deeply what happens with the
entrance of the computer on the scientific stage, or more general, on the historical stage.
Abstracts
Liesbeth De Mol (CLWF, Université de Gand): Sensing computers. Developing mathematics from mancomputer collaborations in the early years of computing
Abstract :The year 1946 marked the beginning of a new era of electronic and digital computers with the public
announcement of ENIAC, the first electronic and digital computer that allowed the setting-up of a wide range of
different programs/problems. This computer was a true behemoth, not only because of its size but also because of the
tedious work involved to "program/wire" it. Unlike the computers we have nowadays with their layers of interfaces, the
ENIAC required direct physical contact to be programmed. I.e., in order to set it up for computation it needed to be
physically wired. A program was not stored internally into the computer, it was external to it. It was this machine that
allowed a number of mathematicians and logicians to develop several new branches of mathematics in a way that would
not have been possible without some kind of contact with this machine. The aim of this talk is to trace down these
developments starting from the work by Lehmer, Curry, von Neumann and Hartree. I will discuss how their meetings
and collaborations with the machine played a fundamental role in the further development of their work, and how these
kind of human-computer collaborations have evolved over time. Ultimately, this talk wants to confront these early
human-computer collaborations, which involved a more direct interaction with the machine, with current humanmachine collaborations to tackle the question in how far a "hands-on" approach results in a different kind of
mathematical thinking.
Sandra Mols (PratiScienS, Archives H. Poincaré, Université Nancy 2 ; MSH Lorraine): Curing
computers and becoming computer experts ?
Abstract: In this talk, my concern is with computer specialists, the emergence and origins of their specialism, and the
relations between specialty and computers as such. Briefly put, how did computer expertise emerge ? When ? From
what ? More broadly, what is computer expertise about ? To answer these questions, I comment on the everyday
practice of some 1950s-60s computing laboratories showing how, in these early days of electronic computing
technology, computers were not exactly grandiose ancestors to the wonders of calculation and data processing we know
today, and that there was often little, or no standard of expertise then to refer to for the care of these novel machines and
their efficient productive exploitation. In the 1950s-1960s, in many ways, most computers indeed intrinsically failed to
meet expectations formulated about them. For scientists, they did not have the calculational capability claimed, hoped
for ; for mathematicians, digital, computers tended to distort numbers introducing, here and there, hard-to-track
truncation and rounding-off errors ; and for their engineers too, they tended to break down or malfunction quite often, if
not most of the time. Briefly, computers were deceptive, and, yet, in the same time, this deceptiveness rendered them
fascinating, too, to explore. So much that many of those set to explore the wonders and puzzles of the forthcoming
science of “computerology” and did turn into ‘computer experts’, and never returned to their original fold – to
paraphrase from J.H. Wilkinson, 1960s numerical analyst. Yet, how did that happen ? My proposal will be that the
emergence of computer expertise may have a lot to do, ironically, with computers being deceptive in their early days.
That is, reformulated, my proposal is that computer experts emerged as specific group from draining, building their
usefulness and expert status from being exposed to, and learning to taking care of early computers’ malfunctioning and
error-prone nature, their very deceptiveness. In that process, two concomitant things happened, first, the gradual
cleansing of computers of their deceptiveness and their rise in status (they became reliable, they gained in calculational
power, there emerged ways to control the propagation of truncation and rounding-off errors), and, second, the
emergence of computer experts, whose private practices remain, ironically, till now focused on computer error
management, as a new kind of expert reputed to assist, drive the revolutionary, positive, impacts from computer usages.
Franck Varenne (Université de Rouen & GEMASS) : Le tournant de la programmation orientée objets
dans les sciences empiriques
Résumé: Cette intervention a pour but d’apporter une contribution à l’idée selon laquelle le vaste mouvement
d’informatisation des sciences présente des significations, des degrés et des types bien distincts. On sait déjà que le
récent tournant computationnel dans les sciences empiriques (en cours depuis les années 1990), par exemple, ne peut
être identifié avec la graduelle (parfois lente) mais inexorable introduction, dès l’après-guerre, de l’ordinateur comme
instrument de calcul numérique généralisé dans les sciences à approche quantitative.
Ce que l’on reconnaît moins souvent, c’est le fait que ce tournant computationnel ne présente pas lui-même non plus de
signification épistémologique et méthodologique univoque et homogène. Dans divers domaines des sciences
empiriques, la portée épistémologique (au sens de l’épistémologie de terrain, c’est-à-dire conçue, récupérée, reformulée
ou inventée par les scientifiques eux-mêmes) de ce tournant computationnel a été interprétée très diversement (parfois
même de manière contradictoire) même si les outils formels et logiciels nouvellement introduits dans ces domaines ont
pu être les mêmes : partager un instrument informatique et/ou logiciel ne signifie donc pas encore partager la même
interprétation ni la même signification épistémiques pour ce même instrument en matière de techniques d’explication,
de représentation, de formalisation et/ou de calcul.
Je tâcherai de confirmer ce diagnostic sur le cas du passage gradué ou brusque (dans certains domaines) de la
programmation procédurale à la programmation dite « orientée objets » depuis les années 1990. Pour confirmer ce
diagnostic de diversité épistémologique, je comparerai deux domaines où cette programmation n’est pas née mais où
elle a été importée tardivement suite à la mise à disposition de langages de programmation ad hoc et relativement plus
faciles d’accès, du type C++. Dans d’autres secteurs, plus proches de l’ingénierie informatique, on peut certes faire
remonter la programmation orientée objets aux années 1950 ; mais je choisis ici à dessein deux secteurs éloignés de ce
domaine séminal afin de comparer justement deux modes d’adoption et d’importation. Je montrerai ainsi qu’alors que
dans un certain secteur de la biologie computationnelle, l’arrivée de la programmation orientée objets a favorisé une
évolution du statut et du type de formalisation habituellement pratiquée vers une pluriformalisation méthodologique, en
sociologie computationnelle en revanche, le tournant de la programmation orientée objets a semblé laisser de nouveau
libre la place pour un discours théorique général - certes ingénieux puisque présentant des aspects à la fois pluralistes et
unitaires - dès lors que la pluriformalisation au moyen des approches informatiques par objets y est revendiquée comme
ayant une portée non d’abord méthodologique mais plutôt ontologique.
Ce sera l’occasion de voir combien cette technologie mixte, mi-formelle, mi-matérielle, qu’est l’informatique peut être
adoptées, par décision des scientifiques eux-mêmes et des contextes qui sont les leurs, soient à des fins purement
instrumentales, soient (par suite d’un engagement ontologique fort sur les formalismes nouveaux mis à disposition) à
des fins de rationalisations épistémologiques ex post. Cette dernière possibilité semble se faire jour en particulier dans
les domaines des sciences empiriques qui sont en mal de théories consensuelles ou suffisamment bien fondées.
Indications bibliographiques :
Phan, D. & Varenne, F. : “Agent-Based Models and Simulations in Economics and Social Sciences : from conceptual
exploration to distinct ways of experimenting", Journal of Artificial Societies and Social Simulation, 13(1),5, 2010.
Varenne, F. : Du modèle à la simulation informatique, Paris, Vrin, 2007.
Varenne, F. : Qu’est-ce que l’informatique ?, Paris, Vrin, 2009.
Varenne, F. : « Les simulations computationnelles dans les sciences sociales », Nouvelles Perspectives en Sciences
Sociales, 5 (2), 2010, p. 17-49.
Martin Carlé (Université d’Athènes ; Humboldt-Universität zu Berlin) : Logical branching in early
Greek music theory and its metaphysical recall by the computer
Abstract: The epistemological foundation of european science evolved by the mathematical affinity of the ’sister
sciences’ "geometry, number, astronomy and, not least of all, music" (Archytas fr. B1). This unifying sisterhood, as is
well known, was revoked by the ’demathematisation of ontology’ (Gaiser 1963) in Aristotle’s metaphysics and replaced
by a guide to logical reasoning rooted in an axiomatised deductive system of demonstrations (Posterior Analytics).
Applying these guidelines to the perceptual process of melody, however, the founder of ’musicology proper’,
Aristoxenus of Taras, was forced to contradict one of his teacher’s dearest metaphysical conceptions. While taking
harmonic modulations into consideration, Aristoxenus’ re-systematisation of musical scales requires the listener to
branch his stream of logical reasoning and to temporarily follow mutual exclusive harmonic pathways that — like the
square (dynamis) of an irrational diagonal in mathematical reasoning — would heretically "take the impossible into
account (Aristotle, Metaphys. 1047b3-13). Discovering this new, time-critical realm of being, Aristoxenus rejects
musical notation in principle, develops an alliterative system of related logical propositions similar to Prolog or OCL
and takes up a radical philosophical stance anticipating Husserl’s phenomenology of time. After concisely providing the
necessary details of this argument the talk will try to show how the computer acts as a unifying device to the exposed
epistemological problems and how, inversely, the entry of the computer — if not reduced to the timeless concept of a
universal turing machine — maybe historically understood as the phenomenological extension that enables us to
scientifically step into the ontological domain of time-critical processes first discovered by music theory.