OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Vendredi c’est Graphism ! http://owni.fr/2012/04/20/vendredi-cest-graphism-design-zombies/ http://owni.fr/2012/04/20/vendredi-cest-graphism-design-zombies/#comments Fri, 20 Apr 2012 08:44:47 +0000 Geoffrey Dorne http://owni.fr/?p=106834

Hello :)

C’est vendredi et entre deux rayons de soleil, je vous invite à prendre un bain de zombies, un verre de poke sexuel, une lampée de plan de métro en HTML5, une douche d’installation audiovisuelle, une cuillerée d’application iPad et un grand bol de logos et de marques ! Sacrée programme ! Oh et… pour vous détendre, le WTF de cette semaine s’intéresse à la sexualité et la politique… oulala ! ;-)

Bon vendredi et… bon “graphism” !

Geoffrey

Allez hop, on commence le début de notre semaine avec ces superbes dessins à l’aquarelle de… morts-vivants ! Nous imaginons souvent que les zombies et autres créatures de ce genre sont des êtres sans amour, et bien détrompez-vous, car Kelly DiPucchio a écrit un livre pour enfants qui raconte l’histoire de l’aimable Mortimer qui va faire tout ce qu’il peut pour rencontrer la femme de sa vie. Malheureusement, les femmes ne sont pas vraiment réceptives à ses attentions très… “zombiesques” ! Heureusement, Mortimer a plus d’un tour dans son sac… ;-) À noter que c’est l’artiste Scott Campbell qui a réalisé les illustrations… des aquarelles douces et amères comme on les aime :)

Bon sinon… il reste des zombies qui font peur ;-)

source

On continue avec un drôle de projet que celui que je vais vous présenter… mais rassurez-vous, il est tout à fait « correct » ! Le « LikeBelt » est la manifestation tangible de Facebook. Avec la technologie sans contact NFC (Near Field Communication), il vous suffira d’avoir votre téléphone NFC Android, ainsi qu’une puce RFID et vous êtes libre pour poker les lieux physiques, réels ! Oui, vous pourrez communiquer l’amour numérique que vous portez à vos amis Facebook tout en leur montrant… physiquement !

Cliquer ici pour voir la vidéo.

source

Cette semaine est également est sorti un projet tout simple, que j’ai réalisé avec Barbara Chabriw ! Le site s’appelle SubLyn et a pour point de départ que les sites de transports en commun sont tout en Flash ou avec des PDF et beaucoup de choses parfois pas très pratiques et parfois un peu longues et complexes à manipuler, ou à charger. Comme, je passais mon temps sur Google Images à chercher un plan de métro d’assez bon format pour me repérer rapidement… j’ai décidé que j’allais me créer un site plus pratique… quitte à ce qu’il serve à d’autres.

Ainsi, SubLyn est né.

SubLyn souhaite donc proposer un plan du métro parisien géographiquement plus exact que le plan officiel de la RATP et relié  en temps réel aux tweets sur chaque ligne de métro. Par exemple, je souhaite rapidement partir à Gare du Nord depuis chez moi, je vois que je dois prendre la ligne 1 jusqu’à Châtelet puis le RER B jusqu’à la Gare du Nord, j’en profite par la même occasion pour regarder un peu l’activité de ces lignes avec Twitter en cliquant sur la petite icône « Ligne 1 » puis la petite icône « RER B ». Des contrôleurs par-ci, des problèmes de rames par-là, un chanteur à telle station ou encore une jolie fille dans une autre, bref, la vraie vie du métro.

À noter que l’idée n’est donc pas du tout de faire de la concurrence au site de la RATP, mais plutôt d’offrir un petit site pratique avec le pouls du métro… c’est donc sans prétention, et si ça peut vous être utile, j’en suis le premier ravi !

Sublyn en images :

sub22 Sublyn, votre plan de métro parisien en HTML, tout léger et relié en temps réel à twitter !

Découvrez SubLyn mais attention, le site est encore en bêta !source

Avec certaines installations audiovisuelles, on apprécie la simplicité… Et tel est le cas avec le premier chapitre de ce travail réalisé avec Squeaky Lobster et Romain Tardy membre d’AntiVJ. Cette installation polyvalente s’intitule “Battleships” et utilise une grille de lumières et de la vidéoprojection en noir et blanc… Ici, pas de couleurs flashy mais juste une forme minimaliste et  deux couleurs contrastées qui vont faire rougir certains experts en cartographie. Apparemment, c’est un travail en cours et la structure va changer pour chaque nouvelle étape. Le tout restera construit avec les mêmes modules carrés.

Cliquer ici pour voir la vidéo.

source

Voici une application iPad qui fait honneur à l’esprit des mathématiques modernes ! Cette histoire interactive des mathématiques couvre une période allant de l’an 1000 à 1950, et présente le lien profond entre IBM et l’équipe de designers légendaires Charles et Ray Eames. En 1950 lorsque les Eames ont été appelés par l’ex-PDG d’IBM, Thomas Watson, pour un film, leur passion commune pour les mathématiques et les sciences a pu être révélée au grand jour et ainsi évoluer en une relation rare entre IBM, les mathématiques et le design. Parfait donc pour les amoureux des chiffres, des sciences et du design.

En vidéo :

Cliquer ici pour voir la vidéo.

source

Toujours cette semaine, j’ai découvert cette immersion dans l’univers des identités visuelles et notamment la possibilité de remonter aux origines des noms des marques ! En effet, combien de logos voyons-nous chaque jour et dont nous ignorons les origines, le sens profond lié à la marque ? Même au sein des grandes entreprises, combien d’employés ignorent ce que le logo et le nom de leur entreprise signifient ? Afin d’apprendre, de découvrir et de comprendre l’histoire qui se cache derrière de nombreuses sociétés, voici cette liste visuelle des plus célèbres entreprises au monde.

source

Le WTF de cette semaine est un étrange mélange entre politique et sexe ! Bouh ! Cette infographie vidéo animée, réalisée par 2FACTORY Agency, reprend les chiffres publiés dans l’enquête sur les mœurs des Français et leurs orientations politiques, réalisée par Ifop pour Hot vidéo du 24 février au 1er mars 2012 auprès d’un échantillon de 1 411 personnes représentatif de la population française âgée de 18 ans et plus…

On en apprend des vertes et des pas mûres sur les gens de gauche, de droite, du centre, les écolos, etc. ;-) Attention toutefois, cette vidéo est quand même #NSFW et pas pour les enfants ! C’est dit.

Cliquer ici pour voir la vidéo.

Merci Julie

Oui, ‘dredi c’est Graphism est terminé pour aujourd’hui, mais rassurez-vous je vous laisse en bonne compagnie avec ce kit pour la fin du monde, avec cette œuvre réalisée sur Mac OS, ou encore avec ce Yo Mamma version designer !

En attendant la semaine prochaine, soyez bien sage, allez voter, et réservez votre train pour le web2day de Nantes ! :)

Geoffrey

]]>
http://owni.fr/2012/04/20/vendredi-cest-graphism-design-zombies/feed/ 5
Quelle sorte de cyborg voulez-vous être? http://owni.fr/2011/06/03/homme-machine-intelligence-sorte-cyborg-voulez-vous-etre/ http://owni.fr/2011/06/03/homme-machine-intelligence-sorte-cyborg-voulez-vous-etre/#comments Fri, 03 Jun 2011 10:51:42 +0000 Xavier de la Porte http://owni.fr/?p=65863 Xavier de la Porte, producteur et animateur de l’émission Place de la Toile sur France Culture, effectue chaque semaine une lecture d’article dans le cadre de son émission. Cet article a été publié le 6 avril sur InternetActu.

La lecture de la semaine, encore une fois, sera une chronique de Clive Thompson dans le dernier numéro du magazine américain Wired, car, encore une fois, cette chronique est tout à fait passionnante. Son titre n’est pas ce qu’elle a de mieux, mais il est suffisamment intriguant pour donner envie de poursuivre : “Avantage aux Cyborgs : pourquoi l’accès à une intelligence supérieure passe par l’amélioration des relations avec vos assistants numériques.” Je vous rassure, la suite est plus claire.

Clive Thompson commence par poser une question obsédante et désormais classique:

Qui, de l’homme ou de la machine, est le plus intelligent?

En 1997, rappelle Thompson, Deep Blue, le superordinateur d’IBM, a fait nettement pencher la balance en faveur des robots en battant Garry Kasparov aux échecs. Deep Blue a gagné parce que les ordinateurs peuvent produire, à la vitesse de la lumière, des calculs presque infinis : ce dont les humains sont incapables. Ce fut le prima de la force brute, de la capacité à passer en revue des millions de mouvements possibles pour trouver les meilleurs. Ce n’est pas comme ça que les humains jouent aux échecs. Les Grands Maîtres, nous rappelle encore Thompson, s’appuient, pour choisir le bon mouvement, sur des stratégies et des intuitions fournies par des années d’expérience et d’étude. Les intelligences humaines et artificielles ne travaillent pas de la même manière, ce qui a donné à Kasparov une idée intrigante.

C’est là où le papier de Thompson commence à nous apprendre quelque chose (en tout cas à m’apprendre quelque chose). Quelle fut l’idée de Kasparov ? Et si, au lieu de faire s’affronter les humains et les machines, on les faisait travailler en équipe ? Kasparov a donc créé ce qu’il a appelé les advanced chess, les “échecs avancés”, dans lesquels les joueurs sont assistés par un logiciel. Chaque compétiteur entre la position de ses pièces dans l’ordinateur et utilise les mouvements proposés par le programme pour faire ses choix.

La revanche des esprits moyens

En 2005, dans un tournoi en ligne où tout le monde pouvait concourir, certaines paires humain-machine étaient tout à fait étonnantes. Mais celle qui remporta le tournoi ne comptait aucun Grand Maître, ni aucun des superordinateurs présents dans la compétition. Ce fut une équipe d’amateurs d’une vingtaine d’années, assistés par des PC ordinaires et des applications bon marché qui l’emporta. De quoi ont-ils tiré leur supériorité ? La réponse apportée par Thompson commence à nous éclairer sur le sens de son titre. Leur supériorité est venue de leur aptitude à tirer le meilleur parti de l’aide que leur apportait l’ordinateur. Ils savaient mieux que les autres entrer leurs mouvements dans la machine, ils savaient quand il fallait consulter le logiciel et quand il valait mieux ne pas suivre ses conseils. Comme Kasparov l’a dit ensuite, un être humain faible avec une machine peut se révéler meilleur qu’un être humain fort avec une machine si l’être humain faible a une meilleure méthode. En d’autres termes, selon Thompson, les entités les plus brillantes de notre planète ne sont ni les êtres humains les plus accomplis ni les machines les plus accomplies. Ce sont des gens à l’intelligence moyenne qui ont une aptitude particulière à mêler leur intelligence à celle de la machine.

Le grand-maître Ponomariov en 2005 face à la machine

Et pour Thompson, cela ressemble beaucoup à ce qui se passe dans nos vies. Aujourd’hui, nous sommes continuellement engagés dans des activités “cyborguiennes”. On utilise Google pour trouver une information, on va sur Twitter ou Facebook pour se tenir au courant de ce qui arrive aux gens qui nous intéressent, et d’autres choses encore.

Or, un grand débat oppose ceux qui adorent notre vie moderne et numérique à ceux qu’elle perturbe. D’après Thompson, l’exemple fourni par les échecs nous montre pourquoi il existe un tel fossé. Ceux qui sont excités par les technologies sont ceux qui ont optimisé leurs méthodes, ceux qui savent comment et quand on s’appuie sur l’intelligence de la machine. Ceux qui ont adapté leur profil Facebook, configuré leurs fils RSS, etc. Et même, plus important, ceux qui savent aussi quand il faut s’écarter de l’écran et ignorer le chant des distractions qui nous appellent en ligne. Le résultat, c’est qu’ils se sentent plus intelligents et plus concentrés. A l’inverse, ceux qui se sentent intimidés par la vie en ligne n’atteignent pas cet état délicieux. Ils ont l’impression qu’internet les trouble, qu’il les rend “bêtes” pour reprendre le mot de Nicholas Carr.

Or, et on ne peut que donner raison à Clive Thompson, on ne peut pas faire comme si l’âge des machines étaient en passe de s’achever. Il est certain que l’on va de plus en plus dépendre de l’assistance numérique pour penser et se socialiser. Et trouver le moyen d’intégrer l’intelligence de la machine à nos vies personnelles est le défi le plus important qui nous soit offert. Quand s’en remettre à la machine ? Quand se fier à soi-même ? Il n’y a pas, d’après Thompson, de réponse univoque, et il n’y en aura jamais. Il s’agit là, selon lui, d’une quête personnelle. Mais en aucun cas nous ne devons éluder la question tant les avantages cognitifs sont grands pour ceux qui savent le mieux penser avec la machine. Au final, dit Thompson, la vraie question est : “quelle sorte de cyborg voulez-vous être ?”

Cette chronique de Thompson est passionnante pour elle-même, mais elle l’est aussi, me semble-t-il, pour ce qu’elle ouvre comme pistes. Et notamment, pour une explication qu’elle peut apporter à la crainte d’une partie des élites, et des élites françaises en particulier, face à l’internet. Car si Thompson, à la suite de Kasparov, a raison, si une intelligence moyenne alliée à une bonne maîtrise de la machine renverse les hiérarchies au point de se révéler supérieure à des années de travail et d’accumulation de savoir ; si cette règle s’avère exacte dans d’autres disciplines que dans les échecs, alors quelle supériorité resterait à ceux qui savent, ceux que l’on considère comme très intelligents, mais qui vivent sans les machines, qui les craignent, les méprisent, et ne s’en servent pas ? Et s’il y avait, derrière les arguments des contempteurs d’internet, la manifestation de cette crainte, la crainte d’un monde dans lequel ils ne domineraient plus, d’un monde qui menacerait leur position. Ça n’est qu’une hypothèse, mais il faut avouer qu’elle est tentante.


Article initialement publié sur InternetActu

Photos FlickR CC : Paternité par thrig et Paternité par erral

]]>
http://owni.fr/2011/06/03/homme-machine-intelligence-sorte-cyborg-voulez-vous-etre/feed/ 8
Quand Hal joue à Jeopardy http://owni.fr/2011/04/12/quand-hal-joue-a-jeopardy/ http://owni.fr/2011/04/12/quand-hal-joue-a-jeopardy/#comments Tue, 12 Apr 2011 15:07:47 +0000 Duncan http://owni.fr/?p=34531 En février dernier, les amateurs de La roue de la fortune, du Millionnaire et d’Une famille en or ont tremblé : Watson, le superordinateur conçu par IBM avait vaincu les deux champions américains de Jeopardy!. Le combat de l’homme contre la machine franchissait une nouvelle étape. Mais IBM n’en est pas à son coup d’essai. En 1997, il avait conçu l’ordinateur Deep Blue qui avait battu le champion d’échec Gary Kasparov.

Pourtant, curieusement, battre un champion d’échec est plus facile pour une machine que de battre un champion de Jeopardy!. Les principes de résolutions d’un problème d’échec relève de la recherche opérationnelle « relativement »  simple. Les algorithmes utilisés, l’élagage alpha-beta ou l’algorithme Negascout peuvent en effet se résumer en quelques lignes de pseudo-code. Par contre, pour gagner à Jeopardy! la tâche est plus complexe.

Cliquer ici pour voir la vidéo.

Jeopardy! est un jeu de questions/réponses

La réponse est : Qu’est ce que Jeopardy! ?

Jeopardy! est un jeu très populaire aux Etats-Unis qui a eu son heure de gloire en France, avec l’inénarrable Philippe Risoli à la présentation. L’originalité de Jeopardy!  repose sur le fait que la réponse est la question :

Par exemple, le présentateur propose :

  • C’est l’homme le plus classe du monde

Et le candidat doit trouver :

  • Qui est Georges Abitbol ?

Pour être à égalité avec les humains, il a été décidé que Watson ne pourrait se servir que des connaissances stockées dans sa base de données et ne pouvait donc effectuer de recherches sur internet.

Les algorithmes utilisés pour résoudre ce type de problème relèvent donc d’une autre branche du domaine de l’intelligence artificielle que la résolution du jeu d’échec : le natural language processing, qui consiste à analyser correctement le langage humain. L’un des items les plus connus de cette discipline est le fameux test de Turing.

Pour autant, malgré le côté sexy et impressionnant, est-ce-que ce challenge d’IBM est une réelle avancée dans le domaine des intelligences artificielles ? Deux aspects sont à considérer. Pour gagner au Jeopardy!, il faut bien sûr trouver la bonne réponse mais aussi pouvoir répondre avant les autres candidats. Ces deux aspects renvoient à deux questions différentes mais imbriquées.

  • Quels sont les algorithmes utilisés ?
  • Comment ces algorithmes ont été implémentés ?

C’est l’algorithme utilisé par Watson

La réponse est : Qu’est ce que DeepQA ?

D’une manière très très grossière, répondre à une question revient à piocher des mots-clés dans ladite question, puis les mettre en relation par le biais de différents algorithmes pour extraire de la base de données à disposition les informations pertinentes.

Pour parvenir à produire un algorithme convenable, les équipes d’IBM ne sont pas parties de zéro et ont bien évidemment bénéficié de l’état de l’art. Deux outils ont tout d’abord été appliqués au challenge Jeopardy! :

PIQUANT, une première solution de natural language processing développée quelque années auparavant par IBM

OpenEphyra, une autre solution développée par l’Université Carnegie Mellon, en partenariat avec IBM

Toutefois, les performances de ces algorithmes ne satisfaisaient pas aux critères pour gagner. IBM a donc développé un nouvel algorithme : DeepQA

DeepQA est un pipeline modulaire

La réponse est : Quelle est l’architecture de DeepQA ?

A l’image de l’architecture de PIQUANT ou d’OpenEphyra, la clé du succès pour aboutir au résultat escompté est d’avoir conçu DeepQA comme un pipeline complet et modulaire pour y intégrer différents composants. Pour parvenir à cette architecture souple,  le framework Appache UIMA qui intègre ces composants a été utilisé. Il avait été développé quelques années plus tôt par la même équipe.

Le processus de réponse de DeepQA peut alors se décomposer en divers blocs. A chaque étape, des dizaines d’algorithmes différents sont mobilisés. Certains provenant directement de la littérature, certains de PIQUANT ou OpenEphyra, certains ont été améliorés, d’autres ont été imaginés par l’équipe de IBM.

Architecture de DeepQA

En suivant le graphique ci-dessus, le processus de réponse peut être décomposer de la sorte :

  • Analyse de la question (Question analysis) : le système effectue une analyse syntaxique en  extrayant des mots-clés pour déterminer comment la question sera traitée
  • Décomposition de la requête (Query decomposition) : la question est décomposée en sous-problèmes traités séparément
  • Génération d’hypothèses (Hypothetis generation) : le système propose plusieurs réponses possibles en cherchant dans sa base de donnée
  • Filtrage grossier (Soft filtering) : Afin de gérer au mieux les ressources de calcul, un premier tri est effectué pour éliminer les réponses les moins pertinentes
  • Évaluation des hypothèses et des preuves (Hypothesis and evidence scoring) : les réponses candidates restantes sont analysées plus en détail
  • Synthèse finale et classification (Synthesis and Final merging and ranking) : parmi toutes les réponses possibles, le système calcule la confiance accordée à chaque réponse, et classe celles-ci pour obtenir la plus probable
  • Réponse et confiance (Answer and confidence) : la réponse finale est donnée avec un niveau de confiance que le système a calculé

Tout la difficulté a été de gérer ce patchwork d’algorithmes.  C’est pourquoi un gros travail a été accompli pour doter le système d’une métrique mesurant la pertinence des  résultats apportées par les différentes méthodes.

Le code a été porté sur un supercalculateur

La réponse est : Comment la rapidité de Watson a été améliorée ?

La première mouture du code permettait de répondre à une question en 2 heures. Ce qui est bien insuffisant pour vaincre un compétiteur humain. Pour pouvoir répondre en moins de 3 secondes, le code a été porté sur un cluster (IBM bien sûr), regroupement de plusieurs ordinateurs appelés nœuds, travaillant de concert à la résolution du problème.

Le cluster mis à disposition est une belle bête de compétition : 90 noeuds  Power 750 contenant chacun 4 processeurs octo-coeurs de 3.5 GHz ; le tout comportant 2,880 coeurs  et 16 TeraOctet de mémoire RAM pour une puissance théorique de 80 teraflops (soit 80×1012ou 80 millions de  millions d’opérations par seconde).

Lorsque l’on regarde le top500 des ordinateurs les plus puissants au monde, cela le classerait aux alentours de la 110ème place. Cette puissance était d’ailleurs trop importante au regard des besoins. C’est ce qu’affirme Edward Epstein, chef du département « information non structurée » à IBM research, dont dépend le projet Watson. Durant le jeu, Watson n’a utilisé au plus que 30% des processeurs disponibles.

Porter un code sur un supercalculateur et en optimiser les performances et une tâche désormais classique dans la recherche et l’industrie. Cette étape là ne présente pas de verrous technologiques mais demande un travail important et également beaucoup d’astuces.

Afin d’en optimiser les performances :

  • les données ont été mise à disposition en RAM et non sur les disques dures pour accélérer les temps d’accès
  • le code comportant  750,000 lignes a été parallélisé
  • le processus d’allocation de la mémoire, avec une architecture NUMA, a été optimisé

NaN

La réponse est : Est ce que c’est nouveau ?

Au vu de ce qui précède, le challenge Jeopardy! n’apporte pas d’avancées fondamentales dans le domaine théorique du Natural Language Processing. IBM n’a effectivement pas apporté de solution miracle au problème ou d’algorithmes révolutionnaires mais c’est appuyé sur les nombreux travaux qui existaient déjà (y compris ceux de l’entreprise elle-même).

Pour autant, il apporte bien des nouveautés. Produire une machine capable de gagner à Jeopardy! n’avait jamais été réalisé. L’intégration dans un pipeline n’avait jamais atteint ce degré d’efficacité. De plus, ce pipeline et la méthode proposée peuvent être réutilisés pour aborder d’autres domaines moins futiles.

Les limites entre ingénierie et science sont floues mais IBM apporte bien sa  contribution au domaine.  En fait, l’apport d’IBM est conforme au fonctionnement classique de la recherche scientifique.

C’est avant tout un très beau projet de communication

La réponse est : Que représente le le challenge Jeopardy! pour IBM ?

Sous mon clavier le terme de communication n’est pas une critique. Le travail fourni est réel et conséquent et sur bien des points du domaine, il a permis d’apporter des améliorations incrémentales indéniables. Le challenge Jeopardy! a été conçu et conduit comme un projet industriel de recherche dont l’objectif premier est  de faire parler de l’entreprise. La résolution  d’une véritable problématique scientifique vient en second plan.

C’est d’ailleurs le but avoué[pdf] de David Ferruci, le chef du projet Watson :

Roughly three years ago,IBM Research was looking for a major research challenge to rival the scientific and popular interest of Deep Blue, the computer chess-playing champion [..], that also would have clear relevance to IBM business interests.

IBM construit en effet sa stratégie de communication sur une image d’innovation radicale. Cette image permet de conquérir des marchés en faisant parler de l’entreprise. IBM se place ainsi comme un acteur majeur du Natural Language Processing et promet dans un second temps des applications concrètes, comme l’aide au diagnostic médical. Durant ces trois ans, IBM s’est aussi rapproché des acteurs scientifiques du domaines en montant par exemple un workshop sur le sujet en 2008, ce qui lui a permis de rassembler autours de lui la communauté de chercheurs du domaine.

Sur le long terme, une telle stratégie permet d’attirer des talents et des collaborations avec de brillants éléments qui rêvent de travailler avec IBM. En interne, cela est source de satisfaction et de cohésion pour tous les éléments du groupe y compris ceux qui travaillent très loin de ces sujets. Travailler dans une entreprise ayant une bonne image est valorisant. C’est également un élément de motivation et de promotion interne. Il permet de faire miroiter à des ingénieurs, qui ont une tâche routinière au quotidien, l’opportunité de pouvoir un jour rejoindre ce type de projets au sein du groupe.

Dans ce cas là, ne pourrait-on pas dire que Watson est un projet qui permet à IBM de gagner sur de nombreux tableaux ? Tout comme à Jeopardy!, la réponse est dans la question.

Pour aller plus loin :

  • Building Watson: An Overview of the DeepQA Project [pdf], AI Magazine Vol 31, N°3, p. 59-79,  l’article principal utilisé pour ce billet. Rédigé par l’équipe en charge de Watson, il explique leur démarche et le fonctionnement détaillé de deepQA.
  • Le blog d’IBM research

>> Photo Flickr CC-BY-NC-SA PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par jntolva

>> Article initialement publié sur Nanostelia

]]>
http://owni.fr/2011/04/12/quand-hal-joue-a-jeopardy/feed/ 0
L’ordinateur est en train de l’emporter sur le computer http://owni.fr/2009/11/26/l%e2%80%99ordinateur-est-en-train-de-l%e2%80%99emporter-sur-le-computer/ http://owni.fr/2009/11/26/l%e2%80%99ordinateur-est-en-train-de-l%e2%80%99emporter-sur-le-computer/#comments Thu, 26 Nov 2009 10:56:33 +0000 [Enikao] http://owni.fr/?p=5740

322481121_f5712a70b2_o1A ses débuts, l’ordinateur était une grosse calculatrice avec des boucles d’itération et des fonctionnalités mathématiques un peu avancées. Puis avec le perfectionnement et l’ajout de composants internes ou externes, ce fut aussi progressivement une machine à écrire, à mettre en page, à mettre des sons, à créer des images, à les animer… aujourd’hui, c’est une machine qui peut aussi se connecter à d’autres et permettre à son utilisateur d’interagir avec des applications distantes, de piocher dans des bases d’informations, ou d’être en contact avec d’autres utilisateurs par des moyens électroniques.

Ce qui était une machine dont l’étalon était la puissance est devenu un maillon d’un réseau dont le point fort est le nombre, la force et la diversité des liaisons. Le rigide computer est devancé par le complexe et riche ordinateur. Comme notre cerveau.

Le terme français est assez étonnant car plutôt isolé (avec l’italien) : l’ordinateur, c’est ce qui range, classe, trie. Alors que le terme anglais computer et ses déclinaisons en allemand, russe, portugais, serbe, hollandais, coréen, grec… définit ce qui calcule. D’après ce que j’ai trouvé, il existe aussi deux cas étonnants : les norvégiens et suédois datamaskin qui suggère l’exploitation de données, et le slovaque počítač (littéralement : « ce qui permet de lire, de visionner »). Notons que l’espagnol ou le roumain semblent employer indifféremment les deux notions, calcul et organisation, mais toute précision extérieure est la bienvenue.

Si j’en crois Wikipedia, c’est le philologue Jacques Perret qui aurait proposé en 1955 à IBM (qui trouvait le terme computer trop restrictif) le mot « ordinateur », par référence biblique au grand ordonnateur qui organise le monde. Il met les choses dans l’ordre.

Et bien cette conception de la machine, qui n’est pas sans rapport avec une vision plus globale de l’intelligence et des capacités mentales, est passée en partie au second plan. Certes, une bonne puissance (qu’il s’agisse du processeur ou de la mémoire vive) est utile pour faire fonctionner correctement certaines applications gourmandes en ressources ou pour en maintenir plusieurs actives en même temps, mais le succès commercial des netbooks et la baisse parallèle des ventes d’ordinateurs montre que la course au toujours plus n’est plus forcément de mise. Le good enough se fait plus prégnant quand les moyens financiers sont en baisse, quand la machine portable est un quatrième écran, mais aussi quand un marché sature et cherche à s’étendre… vers le bas.

Car les pratiques ont changé, et notre conception de l’intelligence et des capacités mentales également sans doute. Depuis quelques temps, avec les nouveaux outils de partage (Digg et autres delicious) et d’attraction de contenus (RSS) et les médias sociaux (blogs, Facebook, Twitter, Dailymotion…), la technologie est devenue transparente pour nous permettre de faire des choses sans faire de calculs : propulser et recevoir des informations dans une infosphère dont les caractéristiques (locuteurs, interlocuteurs, tempo, volume, capillarité entre les différents canaux) sont propres à chacun. Nous entrons dans un moment où il devient important de filtrer, trier, classer les informations et les données pour gagner du temps, éviter l’infobésité et enrichir utilement son propre savoir tout en contribuant au savoir des autres. Là où auparavant il importait avant tout de calculer, depuis que le grand public s’est emparé de l’ordinateur, il importe davantage de savoir chercher et archiver, connecter et archiver.

Ce sont bien ces enjeux qui animent à la fois les communautés de l’informatique mais aussi de l’information et du savoir en général :

» stockage (espace, serveurs dédiés, logiciel et base de données comme services distants) et archivage (classement et indexation, traçabilité, effacement et droit à l’oubli)

» classement et taxonomies personnalisées à plusieurs dimensions grâce aux tags (sur les favoris partagés comme delicious, mais aussi sur Twitter avec les hashtags) ou aux listes, ou encore sous forme dynamique et d’organigramme visuel comme Pearltrees.

» accès aux données, c’est à dire recherche dans les archives mais aussi libération des données enfermées dans des silos, avec l’exemple de la donnée publique ouverte et le data.gov

» alertes et informations en temps réel, avec par exemple l’intégration des gazouillis de Twitter dans Bing ou Google, et le récent accord BNO / MSNBC, et plus simplement l’intégration des flux RSS dans des outils professionnels (récent partenariat Netvibes / Sage). Signe des temps : le web et temps réel est la thématique de la conférence LeWeb’09.

»recoupement et rapprochement d’informations et d’idées : fact checking (suivre à ce sujet l’expérience du Monde.fr : les décodeurs), graphes sociaux, applications composites ou mashups, mise en regard de valeurs ou évolution dans des infographies, cross-over entre univers.

» partage de différents types de documents (texte sur Scribd, présentation sur Slideshare, liens grâce aux raccourcisseurs d’URL comme bit.ly qui permet d’obtenir des statistiues sur les taux de clics, vidéos avec YouTube et autres Dailymotion ou Vimeo) par tous types de moyens de diffusion, du statut Facebook : le lifecasting ou 36 15 MyLife a fait place au mindsharing façon “regardez ce que j’ai découvert”. L’illustration la plus récente et significative est l’invite de Twitter, qui est passé de “What are you doing ?” à “What’s happening ?”

» vote et qualification des contenus pour améliorer collectivement la pertinence du classement et de l’indexation : au-delà du commentaire, donner simplement un “plus” ou un “moins”, ou bien attribuer une note, est un système que l’on retrouve sur Agoravox ou Le Post, mais aussi dans d’autres systèmes qui font remonter les “tops”, par exemple les tops des lecteurs et les tops selon les contributeurs chez aaaliens.

Il s’agit donc aujourd’hui d’organiser le savoir, son accès et ses exploitations plutôt que de la simple machine à calculer. Pour reprendre l’expression que m’avait suggéré il y a quelques mois un camarade qui prenait au sérieux l’organisation de sa tuyauterie médias sociaux : nous sommes passés d’une obsession du neurone à un focus sur le pouvoir des synapses. Le parallèle avec le cerveau est particulièrement pertinent.

Ce réseau de cellules constitue une formidable machine à classer, ranger, regrouper, associer… et à remplir les vides ou à remettre de l’ordre quand il en manque. Il faut une certaine dose d’abstraction et d’extrapolation pour faire de quelques minuscules pixels un personnage, par exemple Mario en 1981. Pourtant, même en proposant la version d’origine à un jeune joueur aujourd’hui, son cerveau remplira spontanément en très peu de temps les vides pour “lisser” le personnage et se figurera quelque chose proche de ce qu’on peut voir en 2008. Il y a là quelque chose de fractal : à partir de traits grossiers, le cerveau imagine la complexité.

De même, le fameux exemple de dyslexie montre que le cerveau remet les lettres dans l’ordre assez facilement et on se surprend à lire de manière plutôt fluide ce qui est pourtant mélangé.

Cela fait partie de facultés infra-conscientes de nos cellules grises, qui travaillent très vite et à notre insu. On peut très bien faire de savants calculs balistiques de paraboles en fonction du vent, du poids de l’objet, de la distance… et arriver 5 minutes après pour ramasser la balle au sol, ou bien simplement laisser faire nos yeux et notre cerveau et la rattraper au vol (et éventuellement de libérer un prisonnier au passage).

La génération Y qui a pu connaître le début de l’ordinateur et la fin du computer ressent plus naturellement que c’est la connexion et l’efficacité qui prime désormais sur la grosse machinerie. Cela permet d’accéder à davantage de richesse, d’apports extérieurs, de gagner en souplesse et en réactivité. Pourtant, dans les parcours scolaires le “par cœur” et le “magistral”continue à être le credo, au détriment de l’apprentissage de la recherche et de la classification, de l’apprentissage d’un savoir-être et de la relation à l’autre, de l’encouragement au bidouillage et au do it yourself. En entreprise le modèle pyramidal avec tous ses rouages bien alignés prime encore sur le modèle lâche du réseau informel. Le débat tête bien pleine / tête bien faite est sans fin, mais au jeu de l’adaptation et de la réactivité, à l’heure où les contextes technologiques, économiques et sociaux évoluent vite, quand les pratiques dépassent la technique et se diffusent largement, il serait temps que les paradigmes sociaux en tiennent compte.


» Article initialement publié sur http://enikao.wordpress.com
» Photo de Une par ibananti sur Flickr

]]>
http://owni.fr/2009/11/26/l%e2%80%99ordinateur-est-en-train-de-l%e2%80%99emporter-sur-le-computer/feed/ 4