Abstracts/Résumés
Transcription
Abstracts/Résumés
Dpt. de Mathématiques et d'Histoire des Sciences Centre de recherches historiques : Histoire des pouvoirs, savoirs et sociétés Histoire et épistémologie des savoirs et des pratiques scientifiques autour des ordinateurs: Abstracts/Résumés Journée d'étude, 4 novembre 2010, Jeudi de 10h30 à 16h30, Bâtiment A, salle 148 Organisation: Maarten Bullynck http://ufr6.univ-paris8.fr/Math/sitemaths2/spip/spip.php?article133 Programme - Liesbeth De Mol (CLWF, Université de Gand) : Sensing computers. Developing mathematics from man-computer collaborations in the early years of computing - Sandra Mols (PratiScienS, Archives H. Poincaré, Université Nancy 2 ; MSH Lorraine) : Curing computers and becoming computer experts ? - Franck Varenne (Université de Rouen & GEMASS) : Le tournant de la programmation orientée objets dans les sciences empiriques - Martin Carlé (Université d’Athènes; Humboldt-Universität zu Berlin): Logical branching in early Greek music theory & its metaphysical recall by the computer Descriptif de la journée: La journée d'étude veut ouvrir une perspective historique et épistémologique sur l'émergence et le développement des savoirs et pratiques scientifiques qui naissent avec l'utilisation des ordinateurs dans les sciences depuis 1946. Au lieu de considérer les ordinateurs comme des machines en et pour soi, comme des instruments avec lesquels l'interaction est uni-directionelle et uni-dimensionnelle, on veut étudier et comprendre l'ordinateur comme un des éléments actifs d'un environnement, où les machines, ingénieurs, programmeurs, scientifiques etc. interagissent et doivent s'engager dans un dialogue. C'est là, dans de tels environnements, que la négociation sur les savoirs et pratiques, surgissant entre homme et machine, a lieu.Partant d'une telle perspective, on espère échapper aux séries successives de réductions phénoménologiques qui s'effectuent dans l'utilisation des ordinateurs, où, en fin de compte, l'utilisateur et l'ordinateur sont souvent coincés dans les rôles prédéfinis d'une interface conçue sur mesure à partir des besoins pressentis. La journée d'étude veut rassembler des chercheurs qui ont travaillé sur des reconstructions de pratiques et de savoirs dans les environnements ordinateur-hommes afin de clarifier et comprendre plus profondément ce qui se passe une fois que l'ordinateur entre sur la scène des sciences, ou plus généralement encore, sur la scène de l'histoire. Description of the workshop: The workshop wants to open up a historic and epistemological perspective on the emergence and development of the use of the computer within the sciences (from 1946 till now). Instead of considering the computer as a machine an und für sich, as an instrument with which interaction is one-directional and onedimensional, we want to study and understand the computer as one of the elements of an environment in which machines, engineers, programmers, scientists etc. meet, talk and have to engage in on a dialogue. It is in these environments that the negociations over the practices and the kinds of knowledge arising around the computer take place. By starting from this perspective, we hope to escape the series of successive phenomenological reductions that occur in the use of the computer, where, eventually, the computer and the user are often pushed into predefined roles of a task-oriented interface. The workshop wants to bring together researchers that have worked on the reconstruction of practices and knowledge in man-computer environments to clarify and understand more deeply what happens with the entrance of the computer on the scientific stage, or more general, on the historical stage. Abstracts Liesbeth De Mol (CLWF, Université de Gand): Sensing computers. Developing mathematics from mancomputer collaborations in the early years of computing Abstract :The year 1946 marked the beginning of a new era of electronic and digital computers with the public announcement of ENIAC, the first electronic and digital computer that allowed the setting-up of a wide range of different programs/problems. This computer was a true behemoth, not only because of its size but also because of the tedious work involved to "program/wire" it. Unlike the computers we have nowadays with their layers of interfaces, the ENIAC required direct physical contact to be programmed. I.e., in order to set it up for computation it needed to be physically wired. A program was not stored internally into the computer, it was external to it. It was this machine that allowed a number of mathematicians and logicians to develop several new branches of mathematics in a way that would not have been possible without some kind of contact with this machine. The aim of this talk is to trace down these developments starting from the work by Lehmer, Curry, von Neumann and Hartree. I will discuss how their meetings and collaborations with the machine played a fundamental role in the further development of their work, and how these kind of human-computer collaborations have evolved over time. Ultimately, this talk wants to confront these early human-computer collaborations, which involved a more direct interaction with the machine, with current humanmachine collaborations to tackle the question in how far a "hands-on" approach results in a different kind of mathematical thinking. Sandra Mols (PratiScienS, Archives H. Poincaré, Université Nancy 2 ; MSH Lorraine): Curing computers and becoming computer experts ? Abstract: In this talk, my concern is with computer specialists, the emergence and origins of their specialism, and the relations between specialty and computers as such. Briefly put, how did computer expertise emerge ? When ? From what ? More broadly, what is computer expertise about ? To answer these questions, I comment on the everyday practice of some 1950s-60s computing laboratories showing how, in these early days of electronic computing technology, computers were not exactly grandiose ancestors to the wonders of calculation and data processing we know today, and that there was often little, or no standard of expertise then to refer to for the care of these novel machines and their efficient productive exploitation. In the 1950s-1960s, in many ways, most computers indeed intrinsically failed to meet expectations formulated about them. For scientists, they did not have the calculational capability claimed, hoped for ; for mathematicians, digital, computers tended to distort numbers introducing, here and there, hard-to-track truncation and rounding-off errors ; and for their engineers too, they tended to break down or malfunction quite often, if not most of the time. Briefly, computers were deceptive, and, yet, in the same time, this deceptiveness rendered them fascinating, too, to explore. So much that many of those set to explore the wonders and puzzles of the forthcoming science of “computerology” and did turn into ‘computer experts’, and never returned to their original fold – to paraphrase from J.H. Wilkinson, 1960s numerical analyst. Yet, how did that happen ? My proposal will be that the emergence of computer expertise may have a lot to do, ironically, with computers being deceptive in their early days. That is, reformulated, my proposal is that computer experts emerged as specific group from draining, building their usefulness and expert status from being exposed to, and learning to taking care of early computers’ malfunctioning and error-prone nature, their very deceptiveness. In that process, two concomitant things happened, first, the gradual cleansing of computers of their deceptiveness and their rise in status (they became reliable, they gained in calculational power, there emerged ways to control the propagation of truncation and rounding-off errors), and, second, the emergence of computer experts, whose private practices remain, ironically, till now focused on computer error management, as a new kind of expert reputed to assist, drive the revolutionary, positive, impacts from computer usages. Franck Varenne (Université de Rouen & GEMASS) : Le tournant de la programmation orientée objets dans les sciences empiriques Résumé: Cette intervention a pour but d’apporter une contribution à l’idée selon laquelle le vaste mouvement d’informatisation des sciences présente des significations, des degrés et des types bien distincts. On sait déjà que le récent tournant computationnel dans les sciences empiriques (en cours depuis les années 1990), par exemple, ne peut être identifié avec la graduelle (parfois lente) mais inexorable introduction, dès l’après-guerre, de l’ordinateur comme instrument de calcul numérique généralisé dans les sciences à approche quantitative. Ce que l’on reconnaît moins souvent, c’est le fait que ce tournant computationnel ne présente pas lui-même non plus de signification épistémologique et méthodologique univoque et homogène. Dans divers domaines des sciences empiriques, la portée épistémologique (au sens de l’épistémologie de terrain, c’est-à-dire conçue, récupérée, reformulée ou inventée par les scientifiques eux-mêmes) de ce tournant computationnel a été interprétée très diversement (parfois même de manière contradictoire) même si les outils formels et logiciels nouvellement introduits dans ces domaines ont pu être les mêmes : partager un instrument informatique et/ou logiciel ne signifie donc pas encore partager la même interprétation ni la même signification épistémiques pour ce même instrument en matière de techniques d’explication, de représentation, de formalisation et/ou de calcul. Je tâcherai de confirmer ce diagnostic sur le cas du passage gradué ou brusque (dans certains domaines) de la programmation procédurale à la programmation dite « orientée objets » depuis les années 1990. Pour confirmer ce diagnostic de diversité épistémologique, je comparerai deux domaines où cette programmation n’est pas née mais où elle a été importée tardivement suite à la mise à disposition de langages de programmation ad hoc et relativement plus faciles d’accès, du type C++. Dans d’autres secteurs, plus proches de l’ingénierie informatique, on peut certes faire remonter la programmation orientée objets aux années 1950 ; mais je choisis ici à dessein deux secteurs éloignés de ce domaine séminal afin de comparer justement deux modes d’adoption et d’importation. Je montrerai ainsi qu’alors que dans un certain secteur de la biologie computationnelle, l’arrivée de la programmation orientée objets a favorisé une évolution du statut et du type de formalisation habituellement pratiquée vers une pluriformalisation méthodologique, en sociologie computationnelle en revanche, le tournant de la programmation orientée objets a semblé laisser de nouveau libre la place pour un discours théorique général - certes ingénieux puisque présentant des aspects à la fois pluralistes et unitaires - dès lors que la pluriformalisation au moyen des approches informatiques par objets y est revendiquée comme ayant une portée non d’abord méthodologique mais plutôt ontologique. Ce sera l’occasion de voir combien cette technologie mixte, mi-formelle, mi-matérielle, qu’est l’informatique peut être adoptées, par décision des scientifiques eux-mêmes et des contextes qui sont les leurs, soient à des fins purement instrumentales, soient (par suite d’un engagement ontologique fort sur les formalismes nouveaux mis à disposition) à des fins de rationalisations épistémologiques ex post. Cette dernière possibilité semble se faire jour en particulier dans les domaines des sciences empiriques qui sont en mal de théories consensuelles ou suffisamment bien fondées. Indications bibliographiques : Phan, D. & Varenne, F. : “Agent-Based Models and Simulations in Economics and Social Sciences : from conceptual exploration to distinct ways of experimenting", Journal of Artificial Societies and Social Simulation, 13(1),5, 2010. Varenne, F. : Du modèle à la simulation informatique, Paris, Vrin, 2007. Varenne, F. : Qu’est-ce que l’informatique ?, Paris, Vrin, 2009. Varenne, F. : « Les simulations computationnelles dans les sciences sociales », Nouvelles Perspectives en Sciences Sociales, 5 (2), 2010, p. 17-49. Martin Carlé (Université d’Athènes ; Humboldt-Universität zu Berlin) : Logical branching in early Greek music theory and its metaphysical recall by the computer Abstract: The epistemological foundation of european science evolved by the mathematical affinity of the ’sister sciences’ "geometry, number, astronomy and, not least of all, music" (Archytas fr. B1). This unifying sisterhood, as is well known, was revoked by the ’demathematisation of ontology’ (Gaiser 1963) in Aristotle’s metaphysics and replaced by a guide to logical reasoning rooted in an axiomatised deductive system of demonstrations (Posterior Analytics). Applying these guidelines to the perceptual process of melody, however, the founder of ’musicology proper’, Aristoxenus of Taras, was forced to contradict one of his teacher’s dearest metaphysical conceptions. While taking harmonic modulations into consideration, Aristoxenus’ re-systematisation of musical scales requires the listener to branch his stream of logical reasoning and to temporarily follow mutual exclusive harmonic pathways that — like the square (dynamis) of an irrational diagonal in mathematical reasoning — would heretically "take the impossible into account (Aristotle, Metaphys. 1047b3-13). Discovering this new, time-critical realm of being, Aristoxenus rejects musical notation in principle, develops an alliterative system of related logical propositions similar to Prolog or OCL and takes up a radical philosophical stance anticipating Husserl’s phenomenology of time. After concisely providing the necessary details of this argument the talk will try to show how the computer acts as a unifying device to the exposed epistemological problems and how, inversely, the entry of the computer — if not reduced to the timeless concept of a universal turing machine — maybe historically understood as the phenomenological extension that enables us to scientifically step into the ontological domain of time-critical processes first discovered by music theory.