Format des Soumissions pour IHM-HCI'2001 \(Vol
6 pages
Français

Découvre YouScribe en t'inscrivant gratuitement

Je m'inscris

Format des Soumissions pour IHM-HCI'2001 \(Vol

-

Découvre YouScribe en t'inscrivant gratuitement

Je m'inscris
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus
6 pages
Français
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

Format des Soumissions pour IHM-HCI'2001 \(Vol

Sujets

Informations

Publié par
Nombre de lectures 63
Langue Français
Poids de l'ouvrage 1 Mo

Extrait

Les leçons tirées des deux compétitions de visualisation d'information
Jean-Daniel Fekete
INRIA Futurs/LRI Bât 490, Université Paris-Sud F91405 Orsay Cedex, France Jean-Daniel.Fekete@inria.fr
RESUME La visualisation d’information a besoin de benchmarks pour progresser. Un benchmark est destiné à comparer des techniques de visualisation d’information ou des sys-tèmes entre eux. Un benchmark consiste en un ensemble de données, une liste de tâches, généralement des re-cherches à accomplir et une liste de résultats de recher-ches connus sur ces données (lespépitesà trouver). De-puis deux ans, nous organisons une compétition de vi-sualisation d’information destinée avant tout à obtenir des résultats pour des benchmarks. Nous décrivons ici les leçons les plus importantes que nous en avons tirées. MOTS CLES :d’information, benchmark, Visualisation compétition, évaluation. ABSTRACT Information visualization needs benchmarks to carry on. A benchmark is aimed at comparing information visuali-zation techniques or systems. A benchmark is made of a dataset, a list of tasks mostly based on finding facts about the dataset, and a list of interesting or important findings about the datasets (thenuggetsto find). For the second year, we are organizing the InfoVis Contest aimed at collecting results for benchmarks. We describe here the main lessons we learned. CATEGORIES AND SUBJECT DESCRIPTORS:H.5.2 [Information interfaces and presentation] User Interfaces - Evaluation/methodology; Graphical user interfaces (GUI) GENERAL TERMS:Visualization, Measurement, Per-formance, Human Factors. KEYWORDS:Visualization, Benchmark, Information Contest, Evaluation. INTRODUCTION Le domaine de la visualisation d’information mûrit et les outils conçus par notre communauté commencent à tou-cher des utilisateurs. La visualisation d’information sort des laboratoires de recherche et passe dans des produits commerciaux de plus en plus nombreux (Spotfire, Hu-manIT, ILOG, InXight), en addition de produits statisti-
Copyright©2004 by the Association for Computing Machinery, Inc. permission to make digital or hard copies of part or all of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page.Copyrights for components of this work owned by others than ACM must be honored. Abstracting with credit is permitted.To copy otherwise, to republish, to post on servers, or to redistribute to lists, requires prior specific permission and/or a fee.Request permissions from Publications Dept., ACM, Inc., fax +1 (212) 869-0481, or permissions@acm.org. IHM 2004 Aug 30 – Sep 3, 2004, Namur, Belgium Copyright 2004 ACM 1-58113-926-8 ……. $5.00
7
Catherine Plaisant
Human-Computer Interaction Laboratory University of Maryland A.V. Williams Building, College Park, MD 20742, USA plaisant@cs.umd.edu ques (SPSS/SigmaPlot, SAS/GRAPH et Datadesk) ainsi que dans des environnements de développements comme ILOG JViews. Le public est aussi exposé directement à des visualisations utiles comme la carte du marché (MarketMap de SmartMoney), les statistiques du bureau de recensement américain en ligne ou la visualisation de l’état de la circulation automobile. Que pouvons-nous faire pour améliorer l’utilité de la vi-sualisation et donner des informations utiles aux profes-sionnels désireux de mettre en œuvre des techniques de visualisation dans leurs systèmes ? Améliorer les techni-ques d’évaluation et les théories prédictives sont deux chemins évidents mais difficiles et qui prendront plu-sieurs années avant de donner des résultats généralisa-bles [1,2,3]. Dans des délais plus court, une voie intéressante est de construire des benchmarks permettant de comparer des techniques de visualisation et des systèmes pour des jeux de données relativement génériques et pour des tâches pouvant autant que possible être transférées dans plu-sieurs domaines d’applications. La constitution de benchmarks est une méthode qui tend à se diffuser en informatique. Plusieurs autres domaines ont développés des benchmarks qui deviennent in-1 contournables :TREC pourla fouille de texte, KDD 2 3 Cup pourla fouille de données, PETSpour la surveil-lance vidéo etc. Traditionnellement, les benchmarks sont composés de deux parties : un jeu de données et des tâches à accom-plir sur ces données. Par exemple, si les données sont des pairs d’arbres, une tâche simple peut être de trouver quel arbre a le plus de nœuds. Bien entendu, pour évaluer la qualité des réponses, il convient de connaître les réponses aux questions posées. Une difficulté de la visualisation d’information vient du fait qu’elle prétend favoriser l’exploration et les décou-vertes et qu’il est difficile de définir des métriques préci-ses sur les découvertes. Soit nous spécifions de tâches simples et nous maîtrisons les résultats, soit nous de-mandons des tâches exploratoires et nous contrôlons
1 http://trec.nist.gov/ 2 http://www.kdnuggets.com/datasets/kddcup.html 3 http://vspets.visualsurveillance.org/
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents