En quoi le test Turing nous à amené à Big Data ?

imitation gamesAllen Turing est un célèbre mathématicien, précurseur et concepteur de la logique informatique. En 1950 il établit un test basé sur  «  Imitation Games ». Ou Il y reprit les règles d’un un jeu sur lequel un juge se basant sur les écrit d’une femme et ceux d’un homme, devait trouver qui était la femme et qui était l’homme. Son nouveau jeu remplaça l’homme ou la femme, par un ordinateur ( ou plutôt une intelligence artificielle, car l’ordinateur n’existait pas), et si durant les échanges, les conversations entre le juge et l’ordinateur, ne permettais pas de déterminer qui était l’ordinateur, alors on pouvait dire que l’on faisait face à un ordinateur doué d’intelligence.

Une variation de ce test remplace le juge par une machine, prenons exemple sur le CAPTCHA

capcha

Il s’agit ici d’une façon de trouver un moyen ou l’ordinateur aura des difficulté à répondre, et prouver qu’il est humain.

Une autre variation du jeu est de prendre un juge Ordinateur et de le faire converser avec un homme et une Femme cette fois, afin de déterminer, toujours, qui est l’homme et qui est la femme. Le juge Ordinateur se basant sur des jugements généraux comme, le surf, le shopping, le riche, le pauvre et l’ethnique. Eh bien, l’ordinateur peut déterminer à chaque fois avec exactitude qui l’homme et qui est la femme. C’est actuellement ce qui se passe sur le WEB.

Le Web est donc devenu intelligent.

En effet, comme le Web est  Intelligent, c’est un AL qui existe à l’Échelle du WEB.

D’autant plus que la reconnaissance faciale n’est plus un problème de nos jours, difficile donc de le mettre en défaut.

Bref,  tout cela nous amènes à un concevoir la possibilité d’un système intelligent mais dont l’échelle dépasse la capacité de traitement d’un seul serveur, même de plusieurs centaine.

Big Data apparait là,

Les grandes entreprises travaillant dans cette « intelligence  » doivent faire face à des traitements de données faramineuses et faramineux, car depuis Google et l’utilisation du « MapReduce » , le traitement des données est décomposé en plusieurs traitements sur plusieurs Cluster.

Facebook, Amazon, Linkedin, ebay, n’utilisent plus les framework et database traditionnels pour passer sur le ‘Big Data’.

Comment rendre les données intelligentes, « les données sont pour le savoir, … l’essentiel est de comprendre » dixit Einsten, ainsi la clé de pouvoir prédire.

Comment les données permettent-elles de produire une intelligence, quelle organisation.

Les données peuvent être classées, qu’est-ce que les data nous apprennent, pourquoi peut-on les réunir sur tel ou tel point, ce sont les questions auxquels les métas traitements de grand volume de données permette.