L’histoire de l’informatique et Anecdotes.

Culture et Humour.

Le Premier Bug

Pourquoi le Bug ?

Un peu d’Humour

Le Bug ??

Dans la nuit du 8 au 9 septembre 1945, à Harvard est survenu la première erreur informatique.

Le Mark II d’IBM plantait constamment, on localisa le circuit fautif : le relai 70, tableau F. Une mite géante de 6cm, attiré par la chaleur, était venu se loger dans les circuits de l’ordinateur et avait créé un court-circuit. Ainsi le terme anglais pour « insecte » étant « bug », le nom est resté pour désigner une erreur informatique.

Mais comment le sait-on ? Hé bien, tout les opérations faites sur  le Mark II  étaient notées  dans un cahier de bord  et le capitaine Grace Hopper a scotchée l’insecte baladeur à coté de son rapport… On peut encore voir la mite scotché sur le cahier au Smithsonian Institue de Washington

Les origines de l'informatique

Les Origines 

Un peu de Culture

L’informatique 

Le mot « informatique » a été proposé en 1962 par Philippe Dreyfus pour caractériser le traitement automatique de l’information. Il a été accepté par l’Académie française en avril 1966.

L’ordinateur, inventé en 1945, est une machine complexe qui est utilisé pour effectuer des calculs, traiter des données et réaliser des traitements automatisés. Il trouve donc ses racines dans trois traditions distinctes qui sont à l’origine des concepts de base de l’informatique :

  • les machines à calculer,
  • le codage,
  • l’automatisation.

 

Les quatre ères de l’informatique

La première ère débute avec l’époque des pionniers et il se termine au milieu des années 60. Les ordinateurs de cette époque fonctionnent sur la base de la technologie des tubes à vide. Développé grâce à des investissements militaires, cet âge a fait évoluer l’informatique vers deux directions :

  • la construction de dispositifs matériels de plus en plus sophistiqués où les tubes à vide sont progressivement remplacés par des transistors,
  • le développement de logiciels qui s’appuient sur des langages tels que FORTRAN, COBOL, ALGOL et LISP.

La deuxième ère lui succède jusqu’au milieu des années 70, il correspond sur le plan technologique à la mise au point du circuit imprimé et à la miniaturisation du transistor dans des circuits intégrés. Cette époque est marquée par l’introduction massive de l’informatique dans les entreprises et les grandes administrations.

La troisième ère débute par la naissance des micro-ordinateurs et l’utilisation de l’informatique dans la plupart des activités quotidiennes. Cette évolution a été rendue possible par les progrès réalisés dans le domaine de la miniaturisation. Au début des années 70, un ingénieur développe un microprocesseur sur une « puce » grande comme une tête de punaise. Au niveau logiciel, le micro-ordinateur est accompagné d’un langage de programmation conçu pour les débutants, le BASIC.

La quatrième ère débute avec ce millénaire avec l’explosion d’Internet qui bouleverse le mode de fonctionnement de nombreuses organisations en fournissant une quantité quasi illimitée d’informations et en permettant des échanges entre tous les points du globe.

Extrait  « Les Origines de l’Informatique »  Christian Braesch

L'illusion du Labeur

Des site se ralentissent volontairement

Un peu de Culture

Même si leurs serveurs sont capables de traiter les demandes en une fraction de seconde, certains sites internet ralentissent artificiellement la vitesse d’une requête afin de donner confiance à l’utilisateur : des études ont en effet démontré que pour certaines actions, l’utilisateur est plus rassuré lorsque celles-ci prennent un peu de temps. Facebook utilise cette technique lors de la procédure de sécurisation des comptes.

Les sites internet ralentis volontairement ?<< Imaginez, vous êtes au restaurant, et immédiatement après avoir passé commande le serveur vous apporte les plats. Seriez-vous rassuré par la qualité de la nourriture et le soin apporté par le cuistot? Il y a des chances effectivement que cette rapidité d’exécution soit source de suspicion. » C’est l’exemple choisi par Braden Kowitz, partenaire du fonds d’investissements Google Ventures, pour expliquer à FastCo que les utilisateurs de services web sont prêts à subir des temps d’attente, même s’ils ne se justifient pas techniquement… >>                                 (extrait de MacGénération)

Ce phénomène, nommé « illusion du labeur », a été étudié en 2011 par des chercheurs de Harvard qui, pour démontrer son existence, ont fait tester à des cobayes des sites de voyage et de rencontre. Il a été constaté que des résultats affichés après un temps d’attente inspiraient plus confiance que des résultats affichés immédiatement alors que leur contenu est strictement identique !

liens : Harvard Business School
FastCodesign