Noam Chomsky : la science cognitive ( fr-angl )
13 pages
Français

Noam Chomsky : la science cognitive ( fr-angl )

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
13 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description


Graham Gordon Ramsay
Si l'on devait classer une liste des plus grands et les plus insaisissables de la civilisation défis intellectuels, le problème de «décodage» nous-mêmes - de comprendre les rouages de nos esprits et nos cerveaux, et comment l'architecture de ces éléments est codé dans notre génome - serait sûrement en tête. Pourtant, les divers domaines qui ont relevé le défi, de la philosophie et de la psychologie à l'informatique et les neurosciences, ont été empreintes de désaccord sur la bonne voie.
  [Moins]

Informations

Publié par
Nombre de lectures 19
Langue Français

Extrait

Une longue conversation avec le linguiste légendaire
Graham Gordon Ramsay
Si l'on devait classer une liste des plus grands et les plus insaisissables de la civilisation déIs intellectuels, le problème de «décodage» nous-mêmes - de comprendre les rouages de nos esprits et nos cerveaux, et comment l'architecture de ces éléments est codé dans notre génome - serait sûrement en tête. Pourtant, les divers domaines qui ont relevé le déI, de la philosophie et de la psychologie à l'informatique et les neurosciences, ont été empreintes de désaccord sur la bonne voie.
En 1956, l'informaticien John McCarthy a inventé le terme "intelligence artiIcielle" (ïA) pour décrire l'étude de l'intelligence par la mise en œuvre de ses caractéristiques essentielles d'un ordinateur. ïnstanciation d'un système intelligent de l'aide par l'homme matériel, plutôt que notre propre «matériel biologique» des cellules et des tissus, feraient preuve de compréhension ultime, et présentent d'évidentes applications pratiques dans la création de dispositifs intelligents ou même des robots.
Certains collègues de McCarthy dans les départements voisins, cependant, étaient plus intéressés par la façon dont l'intelligence est mise en œuvre chez les humains (et les animaux autres) en premier. Noam Chomsky et d'autres ont travaillé sur ce qui est devenu la science cognitive, un domaine visant à découvrir les représentations mentales et les règles qui sous-tendent nos capacités perceptives et cognitives. Chomsky et ses collègues ont dû renverser le paradigme dominant de l'époque, le behaviorisme, défendue par Harvard psychologue BF Skinner, où le comportement des animaux a été réduit à un simple ensemble d'associations entre une action et sa récompense ou de punition subséquente. L'annulation de la poignée de Skinner sur la psychologie est souvent marquée par Chomsky1967 examen critique de l'ouvrage de SkinnerVerbal Behavior, un livre dans lequel Skinner a tenté d'expliquer les compétences linguistiques selon des principes béhavioristes.
Approche de Skinner a souligné les liens historiques entre un stimulus et la réponse de l'animal - une approche facilement présentée comme une sorte d'analyse statistique empirique, prédire l'avenir en fonction du passé. Conception de Chomsky de la langue, d'autre part, souligné la complexité des représentations internes, encodée dans le génome, et leur maturation à la lumière des bonnes données dans un système sophistiqué de calcul, qui ne peut être utilement décomposée en un ensemble d'associations. Principes behavioristes d'associations ne pouvaient pas expliquer la richesse des connaissances linguistiques, notre consommation sans In de création de celui-ci, ou comment l'acquérir rapidement les enfants à l'exposition minime et imparfaite de la langue présentés par leur environnement. La «faculté de langage», comme Chomsky lui est soumise, faisait partie du patrimoine génétique de l'organisme, un peu comme le système visuel, le système immunitaire et le système circulatoire, et nous devons l'aborder comme nous nous approchons de ces plus autre vers le bas à Terre des systèmes biologiques.
David Marr, un collègue neurologue de Chomsky au MïT, a déIni un cadre général pour l'étude de systèmes biologiques complexes (comme le cerveau) dans son livre inuentVision, l'un que l'analyse de Chomsky de la capacité de langage plus ou moins s'intègre. Selon Marr, un système biologique complexe peut être comprise à trois niveaux distincts. Le premier niveau («niveau algorithmique") décrit l'entrée et la sortie dans le système, qui déInit la tâche la performance du système. Dans le cas du système visuel, l'entrée peut être l'image projetée sur la rétine et la sortie peut identiIcation de notre cerveau des objets présents dans l'image que nous avions observé. Le deuxième niveau («niveau algorithmique») décrit la procédure par laquelle une entrée est convertie en une sortie, c'est à dire la façon dont l'image sur la rétine peuvent être traitées pour accomplir la tâche décrite par le niveau de calcul. EnIn, le troisième niveau («niveau de mise en œuvre») décrit comment notre propre matériel biologique des cellules met en œuvre la procédure décrite par le niveau algorithmique.
L'approche adoptée par Chomsky et Marr pour comprendre comment nos esprits réaliser ce qu'ils font est aussi diérent que possible du behaviorisme. L'accent
est mis sur la structure interne du système qui lui permet d'exécuter une tâche, plutôt que sur liaison externe entre le comportement passé du système et de l'environnement. L'objectif est de creuser dans la "boîte noire" qui entraîne le système et décrire son fonctionnement interne, un peu comme la façon dont un informaticien qui expliquerait comment un morceau astucieux de logiciel fonctionne et comment il peut être exécuté sur un ordinateur de bureau.
Comme l'écrit aujourd'hui, l'histoire de la science cognitive est une histoire du triomphe sans équivoque d'une approche essentiellement Chomskyian plus paradigme behavioriste Skinner - un exploit communément appelé la «révolution cognitive», bien que Chomsky lui-même rejette ce terme. Bien que cela puisse être une description relativement précise en sciences cognitives et de la psychologie, de la pensée comportementaliste est loin d'être mort dans des disciplines connexes.Paradigmes expérimentaux et des explications behavioristes associationnistes pour le comportement des animaux sont utilisés en routine par les neuroscientiIques qui visent à étudier la neurobiologie du comportement chez les animaux de laboratoire tels que les rongeurs, où la systématique à trois niveaux cadre préconisé par Marr n'est pas appliquée.
En mai de l'année dernière, lors du 150e anniversaire de l'ïnstitut de Technologie du Massachusetts, un colloque sur "Brains, Minds and Machines" a eu lieu, où les informaticiens de premier plan, des psychologues et neuroscientiIques se sont réunis pour discuter du passé et l'avenir de l'intelligence artiIcielle et de son connexion au domaine des neurosciences.
Le rassemblement avait pour but de susciter l'enthousiasme multidisciplinaire pour la renaissance de la question scientiIque dont le domaine de l'intelligence artiIcielle origine: comment le travail de renseignement fait? Comment notre cerveau donne lieu à nos capacités cognitives, et cela pourrait-il être mis en oeuvre dans une machine?
Noam Chomsky, parlant au symposium, n'était pas tellement enthousiasmé. Chomsky a critiqué le domaine de l'ïA pour l'adoption d'une approche qui rappelle du behaviorisme, sauf dans les plus modernes, sous forme de calculs sophistiqués. Chomsky a fait valoir que cette utilisation du champ des techniques statistiques pour prendre des régularités dans des masses de données est peu probable que de céder la perspicacité des motifs qui la science doit orir. Pour Chomsky, la "nouvelle ïA" - axée sur l'utilisation des techniques statistiques d'apprentissage aIn de mieux prédire les données de la mine et - il est peu probable de céder des principes généraux sur la nature des êtres intelligents ou sur la cognition.
Cette critique a déclenchéune réponse élaborée à Chomskyde directeur de Google de recherche et de noter chercheur en ïA, Peter Norvig, qui a défendu l'utilisation de modèles statistiques et a fait valoir que de nouvelles méthodes d'ïA et la déInition de progrès ne sont pas loin de ce qui se passe dans les autres sciences.
Chomsky a reconnu que l'approche statistique peut avoir une valeur pratique, comme dans l'exemple d'un moteur de recherche utile, et est activée par l'avènement des ordinateurs rapides capables de traiter des données massives. Mais aussi loin que la science va, Chomsky dirais qu'elle est inadéquate, ou plus sévèrement, sorte de faible profondeur. Nous n'aurions pas appris l'ordinateur beaucoup sur ce que l'expression «physicien ïsaac Newton" signiIe vraiment, même si nous pouvons construire un moteur de recherche qui renvoie coups sensibles pour les utilisateurs qui tapent l'expression po
ïl s'avère que les désaccords liés ont fait pression sur les biologistes qui tentent de mieux comprendre les systèmes biologiques classiques du genre Chomsky comparé à la faculté de langage.Tout comme la révolution informatique a permis l'analyse de données massives qui alimente la «nouvelle ïA", a ainsi la révolution de la biologie moderne séquençage donné lieu à des champs euris de la génomique et de la biologie des systèmes.
Séquençage à haut débit, une technique par laquelle des millions de molécules d'ADN peut être lu rapidement et à moindre coût, a transformé le séquençage d'un génome d'une entreprise depuis dix ans coûteux à un prix abordable, la procédure de laboratoire courante. Plutôt que d'étudier minutieusement les gènes de manière isolée, nous pouvons maintenant observer le comportement d'un système de gènes dans les cellules agissant comme un tout, dans des centaines ou des milliers de diérentes conditions.
La révolution séquençage a commencé et une quantité phénoménale de données ont déjà été obtenus, apportant avec elle beaucoup de promesses et de battage pour de nouveaux traitements et diagnostics pour les maladies humaines. Par exemple, quand un médicament contre le cancer conventionnelle ne parvient pas à travailler pour un groupe de patients, la réponse pourrait se trouver dans le génome des patients, ce qui pourrait avoir une propriété spéciale qui empêche le médicament d'agir. Avec susamment de données pour comparer les caractéristiques pertinentes des génomes de ces patients atteints de cancer et les groupes de contrôle appropriés, faits sur les drogues pourraient être découvertes, conduisant à une sorte de «médecine personnalisée».ïmplicite dans cette entreprise repose sur l'hypothèse que, avec assez d'outils statistiques sophistiqués et une grande collection assez de données, de signaux d'intérêt peuvent être éliminées il du bruit dans les grandes et mal compris les systèmes biologiques.
Le succès de domaines comme la médecine personnalisée et les ramiIcations d'autres de la révolution séquençage et la charnière approche systémique biologie de notre capacité à faire face à ce que Chomsky appelle «masses de données non analysées" - biologie plaçant au centre d'un débat similaire à celui qui aura lieu en psychologie et intelligence artiIcielle depuis les années 1960.
La biologie des systèmes ne s'est pas levé sans scepticisme. Le généticien et grande gagnante du prix Nobel biologiste Sydney Brennerfois déIni le champcomme "faibles intrants, à haut débit, pas de science de sortie." Brenner, un contemporain de Chomsky, qui a également participé au même colloque sur
l'ïA, était également sceptique sur les approches des nouveaux systèmes à la compréhension du cerveau. Lors de la description d'une approche ascendante-et-vient des systèmes de cartographie circuits du cerveau appelées connectomique, qui vise à cartographier le câblage de tous les neurones dans le cerveau (c.-à-diagrammes des cellules nerveuses sont reliées à d'autres), Brenner a appelé une forme «de la folie . "
Brenner slogan bouchée à la biologie des systèmes et des techniques connexes en neurosciences n'est pas loin de la critique de Chomsky de l'ïA. Un duo inattendu, la biologie des systèmes et de l'intelligence artiIcielle à la fois face à la même tâche fondamentale de la rétro-ingénierie d'un système très complexe dont le fonctionnement interne sont en grande partie un mystère. Pourtant, les technologies en constante amélioration d'obtenir des données massives liées au système, seule une fraction de ce qui pourrait être pertinente. Ne nous comptons sur l'informatique puissant et approches statistiques à démêler le signal du bruit, ou devons-nous chercher les principes les plus élémentaires qui sous-tendent le système et expliquer son essence? L'envie de recueillir davantage de données est irrésistible, si elle n'est pas toujours évident de savoir quel est le cadre théorique de ces données pourrait s'insérer. Ces débats soulèvent une question ancienne et générale de la philosophie des sciences: Qu'est-ce qu'une théorie scientiIque ou une explication satisfaisante, et comment doit être déInie succès pour la science?
Je me suis assis avec Noam Chomsky sur un après-midi Avril dans une salle de conférence un peu échevelée, caché dans un coin caché du Centre éblouissante de Frank Gehry au MïT Stata. Je voulais mieux comprendre la critique de Chomsky sur l'intelligence artiIcielle et pourquoi il peut être dirigé dans la mauvaise direction. Je voulais aussi explorer les implications de cette critique pour d'autres branches de la science, comme les neurosciences et la biologie des systèmes, qui sont tous confrontés au déI de systèmes complexes d'ingénierie inverse - et où les chercheurs se retrouvent souvent dans une mer sans cesse croissant de données massives . La motivation pour l'interview a été en partie que Chomsky est rarement posé des questions sur des sujets scientiIques de nos jours. Les journalistes sont trop occupés à faire ses vues sur la politique étrangère américaine, du Moyen-Orient, l'administration Obama et d'autres sujets standard. Une autre raison était que Chomsky appartient à une race rare et spéciale des intellectuels, qui est rapidement en voie de disparition. Depuis le fameux essai d'ïsaiah Berlin, il est devenu un passe-temps favori des universitaires de placer divers penseurs et scientiIques sur le "hérisson-Fox« continuum: le hérisson, un travailleur méticuleux et spécialisés, grâce à des progrès graduels dans un domaine clairement déIni par rapport à la Fox, un ashy, des idées axée penseur qui saute d'une question à l', en ignorant les limites du champ et l'application de ses compétences là où elles semblent applicables. Chomsky est spécial car il fait cette distinction sembler un cliché vieux fatigué.Profondeur de Chomsky ne pas se faire au détriment de la polyvalence ou la largeur, mais la plupart du temps, il a consacré toute sa carrière scientiIque à l'étude de thèmes déInis en linguistique et en sciences cognitives. Travail de Chomsky a eu une inuence énorme sur une variété de
domaines en dehors de la sienne, y compris l'informatique et de la philosophie, et il n'a pas hésité à discuter et à critiquer l'inuence de ces idées, faisant de lui une personne particulièrement intéressant d'entretien. Vidéos de l'interview peut être trouvéici.
Je veux commencer par une question très simple. Au début de l'AI, les gens étaient extrêmement optimiste sur les progrès réalisés sur le terrain, mais il n'a pas tourné de cette façon. Pourquoi est-il si diîcile? Si vous demandez pourquoi neuroscientiïques la compréhension du cerveau est si diîcile, ils vous donnent des réponses très insatisfaisantes intellectuellement, comme celle du cerveau a des milliards de cellules, et on ne peut pas enregistrer à partir de chacun d'eux, et ainsi de suite.
Chomsky:ïl ya quelque chose à cela. Si vous jetez un oeil à l'avancement de la science, les sciences sont une sorte de continuum, mais ils sont divisées en champs. Le plus grand progrès est dans les sciences qui étudient les systèmes les plus simples. Alors, prenez, par exemple la physique - le plus grand progrès. Mais l'une des raisons est que les physiciens ont un avantage qu'aucune autre branche des sciences a. Si quelque chose est trop compliqué, ils le remettre à quelqu'un d'autre.
Comme les chimistes?
Chomsky:Si une molécule est trop grande, vous le donner aux chimistes. Les chimistes, pour eux, si la molécule est trop grand ou le système devient trop grand, vous le donner aux biologistes. Et si elle devient trop grand pour eux, ils donnent aux psychologues, et enIn il Init dans les mains de la critique littéraire, et ainsi de suite. Alors que les neuroscientiIques disent n'est pas complètement faux.
Cependant, il pourrait y avoir - et il a été soutenu, à mon avis, plutôt plausible, bien que les neuroscientiIques ne l'aime pas - que les neurosciences pour le couple cent dernières années a été mis sur la mauvaise voie. ïl s'agit d'un livre assez récent par un neuroscientiIque cognitif très bon, Randy Gallistel et le roi, en faisant valoir - à mon avis, plausible - que les neurosciences développé genre de passionné de vues associationnisme et connexes de la façon dont les humains et les animaux de travail. Et par conséquent, ils ont été chercher des choses qui ont les propriétés de la psychologie associationniste.
"Il pourrait y avoir - et il a été soutenu, à mon avis, plutôt plausible, bien que les neuroscientiîques ne l'aime pas - que les neurosciences pour le couple cent dernières années a été mis sur la mauvaise voie."
Comme plasticité Hebbien? [Note de l'éditeur: Une théorie, attribué à Donald Hebb, que les associations entre un stimulus environnemental et
une réponse au stimulus peut être codé par le renforcement des connexions synaptiques entre les neurones.]
Chomsky:Eh bien, comme le renforcement des connexions synaptiques. Gallistel soutient depuis des années que si vous voulez étudier le cerveau correctement, vous devriez commencer, un peu comme Marr, en demandant à ce que les tâches est de l'exécuter. Donc, il est surtout intéressé par les insectes. Donc, si vous voulez étudier, par exemple, la neurologie d'une fourmi, vous demandez qu'est-ce que la fourmi faire? ïl s'avère que les fourmis font des choses assez compliquées, comme l'intégration chemin, par exemple. Si vous regardez les abeilles, abeille navigation implique des calculs assez compliqués, impliquant la position du soleil, et ainsi de suite et ainsi de suite. Mais en général ce qu'il arme, c'est que si vous jetez un oeil à la cognition animale, humaine aussi, c'est des systèmes informatiques. Par conséquent, vous voulez regarder les unités de calcul. Pensez à une machine de Turing, par exemple, qui est la forme la plus simple de calcul, vous devez trouver des unités qui ont des propriétés telles que «lecture», «écrire» et «adresse». C'est l'unité minimale de calcul, de sorte que vous devez regarder dans le cerveau des personnes. Vous n'allez jamais à les trouver si vous regardez pour le renforcement des connexions synaptiques ou propriétés de champ, et ainsi de suite. Vous devez commencer par chercher ce qui est là et ce qui fonctionne et de ce que vous voyez plus haut niveau de Marr.
An extended conversation with the legendary linguist
Graham Gordon Ramsay
ïf one were to rank a list of civilization's greatest and most elusive intellectual challenges, the problem of "decoding" ourselves -- understanding the inner workings of our minds and our brains, and how the architecture of these elements is encoded in our genome -- would surely be at the top. Yet the diverse Ields that took on this challenge, from philosophy and psychology to computer science and neuroscience, have been fraught with disagreement about the right approach.
ïn 1956, the computer scientist John McCarthy coined the term "ArtiIcial ïntelligence" (Aï) to describe the study of intelligence by implementing its essential features on a computer. ïnstantiating an intelligent system using man-made hardware, rather than our own "biological hardware" of cells and tissues, would show ultimate understanding, and have obvious practical applications in the creation of intelligent devices or even robots.
Some of McCarthy's colleagues in neighboring departments, however, were more interested in how intelligence is implemented in humans (and other animals) Irst. Noam Chomsky and others worked on what became cognitive science, a Ield aimed at uncovering the mental representations and rules that underlie our perceptual and cognitive abilities. Chomsky and his colleagues had to overthrow
the then-dominant paradigm of behaviorism, championed by Harvard psychologist B.F. Skinner, where animal behavior was reduced to a simple set of associations between an action and its subsequent reward or punishment.
The undoing of Skinner's grip on psychology is commonly marked by Chomsky's1967 critical review of Skinner's bookVerbal Behavior, a book in which Skinner attempted to explain linguistic ability using behaviorist principles.
Skinner's approach stressed the historical associations between a stimulus and the animal's response -- an approach easily framed as a kind of empirical statistical analysis, predicting the future as a function of the past. Chomsky's conception of language, on the other hand, stressed the complexity of internal representations, encoded in the genome, and their maturation in light of the right data into a sophisticated computational system, one that cannot be usefully broken down into a set of associations. Behaviorist principles of associations could not explain the richness of linguistic knowledge, our endlessly creative use of it, or how quickly children acquire it with only minimal and imperfect exposure to language presented by their environment. The "language faculty," as Chomsky referred to it, was part of the organism's genetic endowment, much like the visual system, the immune system and the circulatory system, and we ought to approach it just as we approach these other more down-to-earth biological systems.
David Marr, a neuroscientist colleague of Chomsky's at MïT, deIned a general framework for studying complex biological systems (like the brain) in his inuential bookVision, one that Chomsky's analysis of the language capacity more or less Its into. According to Marr, a complex biological system can be understood at three distinct levels. The Irst level ("computational level") describes the input and output to the system, which deIne the task the system is performing. ïn the case of the visual system, the input might be the image projected on our retina and the output might our brain's identiIcation of the objects present in the image we had observed. The second level ("algorithmic level") describes the procedure by which an input is converted to an output, i.e. how the image on our retina can be processed to achieve the task described by the computational level. Finally, the third level ("implementation level") describes how our own biological hardware of cells implements the procedure described by the algorithmic level.
The approach taken by Chomsky and Marr toward understanding how our minds achieve what they do is as dierent as can be from behaviorism. The emphasis here is on the internal structure of the system that enables it to perform a task, rather than on external association between past behavior of the system and the environment. The goal is to dig into the "black box" that drives the system and describe its inner workings, much like how a computer scientist would explain how a cleverly designed piece of software works and how it can be executed on a desktop computer.
As written today, the history of cognitive science is a story of the unequivocal triumph of an essentially Chomskyian approach over Skinner's behaviorist
paradigm -- an achievement commonly referred to as the "cognitive revolution," though Chomsky himself rejects this term. While this may be a relatively accurate depiction in cognitive science and psychology, behaviorist thinking is far from dead in related disciplines. Behaviorist experimental paradigms and associationist explanations for animal behavior are used routinely by neuroscientists who aim to study the neurobiology of behavior in laboratory animals such as rodents, where the systematic three-level framework advocated by Marr is not applied.
ïn May of last year, during the 150th anniversary of the Massachusetts ïnstitute of Technology, a symposium on "Brains, Minds and Machines" took place, where leading computer scientists, psychologists and neuroscientists gathered to discuss the past and future of artiIcial intelligence and its connection to the neurosciences.
The gathering was meant to inspire multidisciplinary enthusiasm for the revival of the scientiIc question from which the Ield of artiIcial intelligence originated: how does intelligence work? How does our brain give rise to our cognitive abilities, and could this ever be implemented in a machine?
Noam Chomsky, speaking in the symposium, wasn't so enthused. Chomsky critiqued the Ield of Aï for adopting an approach reminiscent of behaviorism, except in more modern, computationally sophisticated form. Chomsky argued that the Ield's heavy use of statistical techniques to pick regularities in masses of data is unlikely to yield the explanatory insight that science ought to oer. For Chomsky, the "new Aï" -- focused on using statistical learning techniques to better mine and predict data -- is unlikely to yield general principles about the nature of intelligent beings or about cognition.
This critique sparkedan elaborate reply to Chomskyfrom Google's director of research and noted Aï researcher, Peter Norvig, who defended the use of statistical models and argued that Aï's new methods and deInition of progress is not far o from what happens in the other sciences.
Chomsky acknowledged that the statistical approach might have practical value, just as in the example of a useful search engine, and is enabled by the advent of fast computers capable of processing massive data. But as far as a science goes, Chomsky would argue it is inadequate, or more harshly, kind of shallow. We wouldn't have taught the computer much about what the phrase "physicist Sir ïsaac Newton" really means, even if we can build a search engine that returns sensible hits to users who type the phrase in.
ït turns out that related disagreements have been pressing biologists who try to understand more traditional biological systems of the sort Chomsky likened to the language faculty. Just as the computing revolution enabled the massive data analysis that fuels the "new Aï", so has the sequencing revolution in modern
biology given rise to the blooming Ields of genomics and systems biology. High-throughput sequencing, a technique by which millions of DNA molecules can be read quickly and cheaply, turned the sequencing of a genome from a decade-long expensive venture to an aordable, commonplace laboratory procedure. Rather than painstakingly studying genes in isolation, we can now observe the behavior of a system of genes acting in cells as a whole, in hundreds or thousands of dierent conditions.
The sequencing revolution has just begun and a staggering amount of data has already been obtained, bringing with it much promise and hype for new therapeutics and diagnoses for human disease. For example, when a conventional cancer drug fails to work for a group of patients, the answer might lie in the genome of the patients, which might have a special property that prevents the drug from acting. With enough data comparing the relevant features of genomes from these cancer patients and the right control groups, custom-made drugs might be discovered, leading to a kind of "personalized medicine." ïmplicit in this endeavor is the assumption that with enough sophisticated statistical tools and a large enough collection of data, signals of interest can be weeded it out from the noise in large and poorly understood biological systems.
The success of Ields like personalized medicine and other oshoots of the sequencing revolution and the systems-biology approach hinge upon our ability to deal with what Chomsky called "masses of unanalyzed data" -- placing biology in the center of a debate similar to the one taking place in psychology and artiIcial intelligence since the 1960s.
Systems biology did not rise without skepticism. The great geneticist and Nobel-prize winning biologist Sydney Brenneronce deIned the Ieldas "low input, high throughput, no output science." Brenner, a contemporary of Chomsky who also participated in the same symposium on Aï, was equally skeptical about new systems approaches to understanding the brain. When describing an up-and-coming systems approach to mapping brain circuits called Connectomics, which seeks to map the wiring of all neurons in the brain (i.e. diagramming which nerve cells are connected to others), Brenner called it as a "form of insanity."
Brenner's catch-phrase bite at systems biology and related techniques in neuroscience is not far o from Chomsky's criticism of Aï. An unlikely pair, systems biology and artiIcial intelligence both face the same fundamental task of reverse-engineering a highly complex system whose inner workings are largely a mystery. Yet, ever-improving technologies yield massive data related to the system, only a fraction of which might be relevant. Do we rely on powerful computing and statistical approaches to tease apart signal from noise, or do we look for the more basic principles that underlie the system and explain its essence? The urge to gather more data is irresistible, though it's not always clear what theoretical framework these data might It into. These debates raise an old and general question in the philosophy of science: What makes a satisfying scientiIc theory or explanation, and how ought success be deIned for science?
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents