Depuis peu, des robots se sont glissés dans les rédactions des médias d’information. Aux Etats-Unis comme en Europe, cela fait quelques années qu’une partie de la production du contenu rédactionnel est automatisée.
L’un des premiers à sauter le pas fut le quotidien américain Los Angeles Times qui a accueilli au sein de ses équipes Quakebot. Ce robot-journaliste a rédigé son premier article en 2014 lors d’un tremblement de terre survenu le 17 mars en Californie. A l’Associated Press, il se nomme Wordsmith (de Automated Insights) et est en charge des rapports trimestriels de grandes entreprises telles que Yahoo et Apple. Quill, développé par Narrative Science, est quant à lui au service du magazine économique américain Forbes. Depuis peu, le phénomène a traversé l’Atlantique.
En France, le site d’information du quotidien Le Monde a eu recourt à Data2Content pour écrire quelque 36 000 articles à l’occasion des élections cantonales de mars 2015. Les articles du quotidien allemand, die Berliner Morgenpost, qui rapportent quotidiennement la teneur en particules fines de l’air berlinois sont, quant à eux, signés Feinstaub-Monitor.
« Un style plus ou moins imagé »
Ces robots-journalistes ou robots-rédacteurs sont en réalité des algorithmes programmés pour transformer des données en textes. Pour certains, l’exercice consiste à remplir les trous de documents pré-écrits grâce aux différentes informations reçues par les sites ou provenant de données publiques. Pour d’autres programmes informatiques comme Stats Monkey, développé par l’IIL (Intelligent Information Laboratory), la tâche est plus complexe. Cet algorithme est spécialisé dans le compte-rendu des matchs américains de baseball. Minute après minute, il récolte les informations du jeu, récupère les photographies des joueurs sur Internet et rédige un article sans faute d’orthographe ou de grammaire, le tout « dans un style plus ou moins imagé » (Le Monde, mars 2010). Au Berliner Morgenpost, le logiciel est capable de comparer les données de la pollution de l’air de la capitale allemande avec celle de 2008. Titres, textes et visualisations interactives sont ensuite automatiquement adaptés (Morgenpost.de, avril 2015).
« 90 % des informations générées par des robots d’ici à 2025 »
L’utilisation récente de ces programmes d’intelligence artificielle a déjà permis la production de plusieurs milliers d’articles – en 2014, un milliard de textes a été généré par Automated Insight (Frankfurter Allgemeine Zeitung, 17 avril 2015). D’après Kris Hammond, fondateur de Narrative Science, cela n’est qu’un début : « 90 % des informations lues par le grand public seront générées par des robots d’ici à 2025 » (La Revue européenne des médias et du numérique, automne 2014).
Une nouvelle déontologie
Mais qui donc est responsable des éventuelles erreurs commises par les algorithmes ? Les données utilisées pour la production de textes sont-elles libres de droit ? Qui est en charge de la relecture des articles produits automatiquement ? La robotique éditoriale suscite d’ores et déjà de nombreuses interrogations éthiques. « C’est la faute de l’ordi » ne sera pas une justification suffisante selon Tom Kent. Le rédacteur en chef en charge de la déontologie pour The Associated Press s’est interrogé sur les répercussions déontologiques liées à l’emploi de la Génération Automatique de Texte (GAT). Au travers d’une série de dix questions, il anticipe et encourage les entreprises susceptibles de se servir de cette nouvelle technologie à vérifier la fiabilité et la cohérence de leurs données. « Un politicien pourrait demander de savoir pourquoi il a été couvert de telle ou telle façon. Il pourrait demander de voir quels paramètres sont utilisés par votre robot en exigeant de consulter le code source » explique Tom Kent. Une rigoureuse transparence sera alors nécessaire. (medium.com, 24 février 2015).
Une menace pour les journalistes ?
Face aux inquiétudes des professionnels de l’information, les créateurs d’algorithmes se veulent rassurants : « Notre but est juste de fournir aux journalistes des outils qui les débarrasseront des tâches les plus répétitives et les moins intéressantes. Ils dégageront ainsi du temps pour accomplir leurs missions nobles : reportages de terrain, investigations, analyses », explique Kris Hammond (Le Monde, mars 2010). Pour Ken Schwencke, développeur de Quakebot, ces programmes d’intelligence artificielle ne représentent pas une menace pour les journalistes, bien au contraire. Selon lui, cette pratique fait « gagner beaucoup de temps […]. Ça ne remplace pas tant le travail de quiconque, mais rend le travail de tout le monde plus intéressant » (Slate.fr, mars 2014). Une chose est sûre, les robots-journalistes sont encore dans l’incapacité de contextualiser, de mettre en perspective, d’analyser ou d’expliquer l’actualité aux citoyens. Seuls leurs collègues « humains » sont – pour l’instant ? – en mesure de le faire.
« On a et on aura besoin encore à l’avenir de journalistes professionnels bien formés » assure, confiant, Rémy Le Champion. Dans une interview donnée à ARTE Future, le directeur adjoint de l’Ecole de journalisme de l’Institut Français de Presse rend compte de l’aspect encore très « circonscrit » de ces productions robotisées.
Professions « journalistes-codeurs » et « codeurs-journalistes »
…/…
Auteur Sophie Roche pour Future-Arte-Tv
Dans le parcours de l’information (désinformation), il y a un poste qui prédomine avant les robots, ce sont les agences de Presse. Ce sont elles qui selon le politiquement ou financièrement correct, dictent les infos à diffuser, tout le Saint Tremblement qui se retrouve en-dessous n’a qu’une chose à faire, se plier ou disparaitre dans le bannissement de la profession !! Qu’on se le dise !
Et puis qui dit robotisation, sous-entend, mise au chômage des professionnels !
Ces robots restent très primitifs par rapport à ce que peut faire une simple fourmi avec son microscopique cerveau, se balader et ramener la nourriture au bercail dans un labyrinthe, où nous nous perdrions s’il était à notre taille, vu la quantité d’obstacles!!
http://www.youtube.com/watch?v=V1zKY8NVeMk
Nous pourrons domestiquer en robots intelligents, les animaux, insectes, souris, singes certainement avant la fin du siècle, vu la vitesse accélérée de déchiffrage du fonctionnement des gènes avec les variantes de CRISPR !!!
http://www.nature.com/news/five-big-mysteries-about-crispr-s-origins-1.21294
On ne comprend rien du tout aux signaux échangés entre deux neurones, bien plus indéchiffrables que les codes secrets bancaires avec https, même dans les vers Elegans, eux très similaires à nous !!!
Donc les progrès en intelligence artificielle vont s’accélérer et sont imprévisibles avec la domestication d’un cerveau même de fourmi, très supérieur à nos microprocesseurs et programmes actuels ! !!
Il restera des emplois de haut niveau surtout de chercheurs créatifs en biologie et robotique et plus d’emplois répétitifs rudimentaires comme percer des petits trous dans les tickets de métro autrefois ou tisser les vêtements !!
Ca ne peut pas être pire!