[Revue de Presse]

 

De façon tout à fait involontaire, cette revue de presse débute sur les mêmes thématiques que la précédente. Nous parlerons donc cette semaine d’intelligence artificielle, de transports et d’une série de sujets posés en vrac.

 

INTELLIGENCE ARTIFICIELLE

 

  • Les progrès de l’intelligence artificielle permettront-ils à notre intellect de nous survivre après la mort ? Ce motif de science fiction semble déjà être une réalité, puisqu’une startup travaille actuellement à recréer des répliques autonomes de nos cerveaux. Numerama s’est interrogé sur l’impact potentiel de ces technologies sur notre processus de deuil.
  • L’intelligence artificielle se démocratise : l’année dernière, Google a par exemple ouvert à tous l’accès à TensorFlow, son outil d’intelligence artificielle. Du calibrage des concombres au développement d’un véhicule semi-autonome dans son garage, InternetActu revient sur quelques exemples illustrant la démocratisation de l’IA et son accès par tous.
  • La semaine dernière, Google, Facebook, Microsoft, amazon et IBM ont annoncé la création de Partnership on AI, une organisation destinée à répondre aux enjeux éthiques posés par le développement de l’intelligence artificielle. Numérama revient sur les questions que soulève ce nouveau lobby, et remarque qu’Apple en est le grand absent.

 

TRANSPORT

 

  • Des engins volants dans les villes, bientôt une réalité ? Uber planche très sérieusement sur de nouveaux moyens de transports “verticaux”.
  • Microsoft et Renault-Nissan ont annoncé un partenariat dédié au développement de futurs services connectés pour les véhicules reposant sur Microsoft Azure Microsoft.
  • La catégorie Transport étant à prendre au sens large, elle inclut également les fusées destinées à la conquête de l’espace. La semaine dernière, SpaceX testait pour la première fois Raptor, son propulseur pour Mars. Deux jours plus tard, son fondateur Elon Musk dévoilait ses projets pour coloniser la planète rouge (premiers tests en 2018, premiers voyages habités pour 2024).

 

En vrac

 

  • Appelés à se prononcer par référendum sur l’entrée en vigueur d’une loi sur le renseignement, les Suisses ont vôté pour plus de sécurité à 65%. Le texte prévoit notamment le renforcement des prérogatives des services d’espionnage et de sécurité publique.
  • Connaissez-vous les Credit Scores ? Grâce à eux, votre “crédit financier” n’est pluss établi par une banqu, mais une organisation indépendante qui évalue votre capacité à rembourser votre emprunt grâce aux données publiquement accessibles sur vous (âge, emploi…). En Chine, des applications comme WeChat ou encore le géant Alibaba proposent de les calculer grâce aux données des achats effectués par les utilisateurs. Ces scores ne servent pas seulement à des instituts financiers : ils sont également revendiqués par les usagers qui vont jusqu’à les mentionner dans le profil de leurs application de dating.
  • Spotify pourrait racheter Soundcloud. Numerama explique pourquoi ce serait une bonne idée.
  • Le projet de loi numérique a définitivement été adopté. Ce texte prévoit entre autres une plus grande ouverture des données publiques, le droit à l’oubli pour les mineurs et consacre le principe de neutralité du net.

 

 

Advertisements
[Revue de Presse]

Comment se portent les algorithmes cette semaine ?

.
Très bien, merci pour eux.

Je me suis envolée quelques jours en vacances, ma veille n’est certainement pas des plus fraîches. Malgré tout et en quelques lignes, tour d’horizon des articles mis de côté ces derniers jours.

La campagne numérique d’Hillary Clinton boostée par l’ex-PDG de Google : via sa start-up The Groundwork, Eric Schmidt s’est récemment investit dans la campagne de la candidate démocrate en vue de lui assurer “le talent d’ingénierie nécessaire pour remporter l’élection“. Il est ici question de développer une infrastructure IT capable de brasser un large volume de données relatives aux électeurs, développer des outils de ciblage destinés à des levées de fond, des campagnes marketing / de fidélisation…
Je vous renvoie à l’article complet de Qwartz. Une technologie similaire avait été utilisée durant la campagne de réélection d’Obama, pas impossible que je me penche plus en détail sur le sujet.

Programming hate into AI. Partant des travaux du neuroscientifique Christof Koch, l’article de Techcrunch remet en question notre définition de la conscience, traditionnellement basée sur les notions de connaissance (de soi, du monde) et de réflexivité. Il n’existerait pas une forme de conscience figée, mais des consciences, relatives et quantifiables. Une pomme, notre planète ou même Internet pourraient ainsi avoir une conscience…
Partant de ce principe, on peut supposer qu’une Intelligence artificielle aura très probablement une forme de conscience différente de la notre (et ce notamment du fait que nous percevons et donnons sens au monde à travers nos 5 sens). Malgré tout, il est clair que nous nous emploierons à bâtir une AI proche de notre système de valeurs. Nous tenterons d’imprimer nos traits de conscience comme l’empathie, la capacité à aimer… ou à détester.
“Kevin LaGrandeur, a professor at the New York Institute of Technology, recently wrote, “If a machine could truly be made to ‘feel’ guilt in its varying degrees, then would we have problems of machine suffering and machine ‘suicide’”? If we develop a truly strong artificial intelligence, we might — and then we would face the moral problem of creating a suffering being.”

On est foutus : An algorithm can predict human behavior better than humans. Qwartz rapporte en effet les conclusions d’une récente étude du MIT et le verdict est sans appel : pour prédire des comportements, une machine a fait des estimations plus précises que 68% des humains contre lesquels elle était en concurrence. Et si finalement, les robots étaient déjà en capacité de nous voler nos jobs?

Pour Bloomberg, notre salut viendra de notre capacité à nous adapter à cette influence croissante des machines, en développant un savant mélange de raisonnement logique et de social skills. Car si les interactions sociales sont un processus inconscient, il est aujourd’hui encore extrêmement compliqué de les modéliser via un algorithme.
Quand on voit la difficulté de certains à interagir avec des équipes IT, on se dit qu’il n’est pas nécessaire d’attendre l’avènement de Skynet pour s’y mettre…

Sinon, je poursuis ma lecture (et prise en notes) du dernier Cardon, À quoi rêvent les algorithmes. Un bouquin parfois un peu dense, mais dans lequel je me suis plongée avec délectation puisqu’il met en relation dimension technique et sociologie. En attendant un post plus complet, petit extrait:
[Les algorithmes ] nous emprisonnent dans notre conformisme. […] Le comportemtalisme algorithmique, c’est ce qui reste de l’habitus lorsqu’on a fait disparaître les structures sociales“.

Ne partez pas en courant, malgré les apparences c’est tout bonnement passionnant.

.

Comment se portent les algorithmes cette semaine ?

Quelques éléments d’IA

Ça alors. Il semblerait que dans un sursaut de motivation, je me sois mis en tête de reprendre une veille formalisée. Entendre reprendre une veille tout court.
En vrac, donc, quelques éléments sur ce qui deviendra à coup sûr ma future obsession du moment: l’Intelligence Artificielle.

#OLD:

La lettre ouverte de juillet dernier alertant sur le danger des armes autonomes, entre autres signée par Stéphane Hawking, Elon Musk, Bill Gates ou Noam Chomsky. Tous réclament l’interdiction de ces intelligences artificielles “capables de sélectionner et de combattre des cibles sans intervention humaine”. Pour autant, les usages civils de l’IA restent à leurs yeux bénéfiques pour l’humanité.

(A peu près) #AJOUR:

L’AMA de Stephan Hawking (un événement en soi) qu’il a choisi de consacrer plus particulièrement au sujet. Je pense qu’il me faudra des jours à tout lire parce que les commentaires sont aussi riches que les réponses, alors en attendant voici un premier résumé de Wired + un thread de commentaires sur les 3 lois de la robotique et plus généralement sur la nécessité de définir des lois pour l’IA. La référence à Asimov, c’est cadeau.

En suivant ce fil j’ai un peu bifurqué et découvert le Halting problem posé par Turing (oui je fais du franglais mais y’a pas d’occurrence marrante sur Google pour problème Halting alors je me permets). Problème de computer science qui dit que si on file un input à un programme donné, il n’est pas possible de déterminer si celui-ci s’arrêtera un jour ou continuera de tourner jusqu’à la fin des temps.  Du coup je pense que se farcir la page Wikipédia sur la Computability theory pourrait être une super idée mais bon courage.

Comme toujours, un article passionnant d’InternetActu sur l’IA qui résume un peu tout. Mais ce qui m’a le plus frappé dans l’article de Thierry Marcou, c’est son passage sur l’impact long terme de ces technologies sur notre propre développement. Quel système construisons-nous lorsque nos habiletés manuelles et désormais cognitives sont déléguées à des machines ? Comment apprendre à ne pas désapprendre* ? Marcou ajoute:

Face à cette perspective, les utilisateurs ne peuvent être passifs. Ils doivent comprendre ce dont ils sont l’objet et comment répondre : à l’heure de l’informatique émotionnelle, du développement de l’économie comportementale, les utilisateurs ont besoin de médiation pour comprendre les tentatives de manipulation qui les menacent. La sous-veillance cognitive est un territoire à inventer.

En fait, si vous avez un peu de temps devant vous pouvez tout aussi bien vous plonger dans la série d’articles Bodyware d’InternetActu. Ça me laissera tout le temps de trouver de nouvelles sources pour étoffer cet article sur l’IA…

 

* Autre obsession personnelle qui fera certainement l’objet d’une veille plus poussée. En attendant un autre article…. d’InternetActu.

 

Quelques éléments d’IA