Comment se portent les algorithmes cette semaine ?

.
Très bien, merci pour eux.

Je me suis envolée quelques jours en vacances, ma veille n’est certainement pas des plus fraîches. Malgré tout et en quelques lignes, tour d’horizon des articles mis de côté ces derniers jours.

La campagne numérique d’Hillary Clinton boostée par l’ex-PDG de Google : via sa start-up The Groundwork, Eric Schmidt s’est récemment investit dans la campagne de la candidate démocrate en vue de lui assurer “le talent d’ingénierie nécessaire pour remporter l’élection“. Il est ici question de développer une infrastructure IT capable de brasser un large volume de données relatives aux électeurs, développer des outils de ciblage destinés à des levées de fond, des campagnes marketing / de fidélisation…
Je vous renvoie à l’article complet de Qwartz. Une technologie similaire avait été utilisée durant la campagne de réélection d’Obama, pas impossible que je me penche plus en détail sur le sujet.

Programming hate into AI. Partant des travaux du neuroscientifique Christof Koch, l’article de Techcrunch remet en question notre définition de la conscience, traditionnellement basée sur les notions de connaissance (de soi, du monde) et de réflexivité. Il n’existerait pas une forme de conscience figée, mais des consciences, relatives et quantifiables. Une pomme, notre planète ou même Internet pourraient ainsi avoir une conscience…
Partant de ce principe, on peut supposer qu’une Intelligence artificielle aura très probablement une forme de conscience différente de la notre (et ce notamment du fait que nous percevons et donnons sens au monde à travers nos 5 sens). Malgré tout, il est clair que nous nous emploierons à bâtir une AI proche de notre système de valeurs. Nous tenterons d’imprimer nos traits de conscience comme l’empathie, la capacité à aimer… ou à détester.
“Kevin LaGrandeur, a professor at the New York Institute of Technology, recently wrote, “If a machine could truly be made to ‘feel’ guilt in its varying degrees, then would we have problems of machine suffering and machine ‘suicide’”? If we develop a truly strong artificial intelligence, we might — and then we would face the moral problem of creating a suffering being.”

On est foutus : An algorithm can predict human behavior better than humans. Qwartz rapporte en effet les conclusions d’une récente étude du MIT et le verdict est sans appel : pour prédire des comportements, une machine a fait des estimations plus précises que 68% des humains contre lesquels elle était en concurrence. Et si finalement, les robots étaient déjà en capacité de nous voler nos jobs?

Pour Bloomberg, notre salut viendra de notre capacité à nous adapter à cette influence croissante des machines, en développant un savant mélange de raisonnement logique et de social skills. Car si les interactions sociales sont un processus inconscient, il est aujourd’hui encore extrêmement compliqué de les modéliser via un algorithme.
Quand on voit la difficulté de certains à interagir avec des équipes IT, on se dit qu’il n’est pas nécessaire d’attendre l’avènement de Skynet pour s’y mettre…

Sinon, je poursuis ma lecture (et prise en notes) du dernier Cardon, À quoi rêvent les algorithmes. Un bouquin parfois un peu dense, mais dans lequel je me suis plongée avec délectation puisqu’il met en relation dimension technique et sociologie. En attendant un post plus complet, petit extrait:
[Les algorithmes ] nous emprisonnent dans notre conformisme. […] Le comportemtalisme algorithmique, c’est ce qui reste de l’habitus lorsqu’on a fait disparaître les structures sociales“.

Ne partez pas en courant, malgré les apparences c’est tout bonnement passionnant.

.

Advertisements
Comment se portent les algorithmes cette semaine ?

Digital transformation doesn’t matter?

.
L’idée m’est venue d’un article d’Olivier Ezratty, à la suite de participation au dernier Hub Forum qui avait pour thème “Disrupt or be disrupted“. Il y développe un point déjà plusieurs fois évoqué et qu’il ne fait ici que répéter: après “IT doesn’t matter” (référence à un article de Nicholas Carr, publié en 2003 et qui avait généré une immense polémique dans un contexte post éclatement de la bulle), “Digital transformation doesn’t matter“.

Pour être tout à fait honnête, je n’avais jamais entendu parler de ce papier il y a encore 2 semaines. Depuis, je vois la référence partout: malgré sa date de publication, la thèse défendue par Carr est tout à fait transposable aux problématiques de transformation numérique, et la question mérite d’être soulevée.
.


Ce que raconte Nicholas Carr dans “IT doesn’t matter”

.

A mesure que la force de l’IT s’est accrue, les entreprises en sont venues à la considérer comme une ressource de plus en plus essentielle à leur stratégie. Cela se traduit à la fois dans leurs dépenses et dans l’intérêt croissant du top management pour le sujet.
Du fait de son omniprésence, on pourrait légitimement s’attendre à ce que sa valeur stratégique croisse en conséquence. Or, avance Carr, la valeur stratégique d’une ressource ne tient pas à son omniprésence (ubiquity) mais à sa rareté (scarcity). La technologie, parce qu’elle est désormais accessible à tous, est passé d’une ressource stratégique potentielle à une commodité, un simple facteur de production. “[These technologies] became invisible; they no longer mattered“.

La position de Carr est toutefois plus nuancée, puisqu’il distingue:

  • Les technologies propriétaires, détenue par une entreprise et encadrée par des brevets. Celles-ci sont porteuses d’avantages stratégiques puisque non accessibles au reste du marché
  • Les technologies d’infrastructure / les services en réseau, dont la valeur s’accroît justement avec le nombre d’utilisateurs. Il prend l’exemple de l’arrivée du chemin de fer au XIXe siècle ou de l’invention de l’électricité: les premières compagnies en ont certes tiré un avantage comparatif direct, mais une fois la technologie répandue, celle-ci est devenue une part comme une autre de l’infrastructure business de ces entreprises.

Et Carr de conclure: “The window for gaining advantage from an infrastructural technology il open only briefly“. Au final, le seul avantage long terme sera un avantage de coût, mais certainement pas stratégique.

Car l’IT est justement l’un des exemples les plus criants de technologie d’infrastructure:
– Elle tire sa valeur d’une utilisation conjointe des acteurs en présence
– Elle est hautement réplicable (et donc devient rapidement obsolète)
– Elle est toujours plus accessible du fait de la rapide déflation de son prix (cf Loi de Moore)

Dès lors que la technologie commence à se standardiser, les bonnes pratiques tendent à se diffuser plus largement et se généralisent. Bien sûr, les technologies continuent à influencer la compétition entre les acteurs mais tout se joue alors sur le plan macroéconomique, et plus à l’échelle d’une seule compagnie.
.


Rapporté à question de la transformation numérique

.

Pour Ezratty les entreprises engagées dans des processus de transformation numérique ne font en réalité que mettre en place une succession d’évolutions incrémentales. Deux exemples caractéristiques:

Celui d’Air France, qui a récemment lancé une application de réservation de billets sur AppleWatch, prévoit l’installation de 700 bornes interactives dans les 180 escales couvertes dans le monde, ou encore l’équipement de ses agents en iPad.

La Poste, qui a récemment mis en avant l’équipement de 95.000 facteurs en smartphones, des dispositifs Beacon dans les bureaux de poste, ou encore de nouvelles apps…

Mais pour quelle stratégie globale ?

La transformation numérique n’est-elle pas elle aussi sur le point de se standardiser et devenir une commodité comme une autre ? Et surtout, peut-elle perdurer sans la définition d’une stratégie business plus globale ? Un indice dans cet article.
Spoiler alert: les entreprises qui se concentrent sur la stratégie et pas la technologie sont celles qui réussissent à terme leur transformation numérique.

Digital transformation doesn’t matter?

Quelques éléments d’IA

Ça alors. Il semblerait que dans un sursaut de motivation, je me sois mis en tête de reprendre une veille formalisée. Entendre reprendre une veille tout court.
En vrac, donc, quelques éléments sur ce qui deviendra à coup sûr ma future obsession du moment: l’Intelligence Artificielle.

#OLD:

La lettre ouverte de juillet dernier alertant sur le danger des armes autonomes, entre autres signée par Stéphane Hawking, Elon Musk, Bill Gates ou Noam Chomsky. Tous réclament l’interdiction de ces intelligences artificielles “capables de sélectionner et de combattre des cibles sans intervention humaine”. Pour autant, les usages civils de l’IA restent à leurs yeux bénéfiques pour l’humanité.

(A peu près) #AJOUR:

L’AMA de Stephan Hawking (un événement en soi) qu’il a choisi de consacrer plus particulièrement au sujet. Je pense qu’il me faudra des jours à tout lire parce que les commentaires sont aussi riches que les réponses, alors en attendant voici un premier résumé de Wired + un thread de commentaires sur les 3 lois de la robotique et plus généralement sur la nécessité de définir des lois pour l’IA. La référence à Asimov, c’est cadeau.

En suivant ce fil j’ai un peu bifurqué et découvert le Halting problem posé par Turing (oui je fais du franglais mais y’a pas d’occurrence marrante sur Google pour problème Halting alors je me permets). Problème de computer science qui dit que si on file un input à un programme donné, il n’est pas possible de déterminer si celui-ci s’arrêtera un jour ou continuera de tourner jusqu’à la fin des temps.  Du coup je pense que se farcir la page Wikipédia sur la Computability theory pourrait être une super idée mais bon courage.

Comme toujours, un article passionnant d’InternetActu sur l’IA qui résume un peu tout. Mais ce qui m’a le plus frappé dans l’article de Thierry Marcou, c’est son passage sur l’impact long terme de ces technologies sur notre propre développement. Quel système construisons-nous lorsque nos habiletés manuelles et désormais cognitives sont déléguées à des machines ? Comment apprendre à ne pas désapprendre* ? Marcou ajoute:

Face à cette perspective, les utilisateurs ne peuvent être passifs. Ils doivent comprendre ce dont ils sont l’objet et comment répondre : à l’heure de l’informatique émotionnelle, du développement de l’économie comportementale, les utilisateurs ont besoin de médiation pour comprendre les tentatives de manipulation qui les menacent. La sous-veillance cognitive est un territoire à inventer.

En fait, si vous avez un peu de temps devant vous pouvez tout aussi bien vous plonger dans la série d’articles Bodyware d’InternetActu. Ça me laissera tout le temps de trouver de nouvelles sources pour étoffer cet article sur l’IA…

 

* Autre obsession personnelle qui fera certainement l’objet d’une veille plus poussée. En attendant un autre article…. d’InternetActu.

 

Quelques éléments d’IA