l’étau se resserre autour de Facebook

Les régulateurs du monde entier encerclent Facebook. Après des années de demi-mesures, qui n’ont pas empêché les scandales à la chaîne, leur objectif numéro 1 est désormais de changer le comportement du réseau social. Reste à savoir comment. Aux Etats-Unis, on tient Marc Zuckerberg personnellement pour responsable et souhaite lui infliger des sanctions financières. Le Canada entend égalementl’attaquer en justicepour atteinte à la vie privée. L’Etat de New-York vaouvrir une enquête sur l’exploitation des adresses emails par la plateforme.

Facebook s’attend à une amende de 5 milliards $ de la FTC et provisionne 3 mds sur des revenus qui ont augmentéde 26% au 1er trimestre – et qui font encore monter son action !Si on voulait vraiment faire mal au géant américain, il faudrait ajouter un ou deux zéros à la facture. Pour faire face au durcissement des positions des décideurs publics, la plateforme se dote de compétences politiques : la nouvelle directrice juridique de Facebook est l’ancienne juriste en chef du département d’Etat de Donald Trump, également co-auteure du Patriot Act. Elle va travailler au sommet de Facebook avec Joel Kaplan, directeur des Affaires Publiques, lobbyste en chef et conservateur, très proche du nouveau juge controversé Kavanaugh de la Cour Suprême, et Nick Clegg, directeur de la Communication, ex vice Premier ministre du gouvernement britannique conservateur de David Cameron.

https://www.amazon.fr/Faidherbe-Street-USA-Lillabox/dp/B01FQ3W6F2/ref=sr_1_1?__mk_fr_FR=%C3%85M%C3%85%C5%BD%C3%95%C3%91&keywords=lillabox&qid=1556503899&s=music&sr=1-1-catcorr

CHRISTINA GOH – Album “BEST OF” En Concert Exceptionnel le 18 Avril 2019 Sunset Sunside – Paris

CHRISTINA GOH – Album “BEST OF”

Christina Goh – Album “Best Of”

Label Plaza Mayor Company Ltd

Distribution

Sergent Major Company Ltd

The Orchard

En Concert Exceptionnel le 18 Avril 2019

Sunset Sunside – Paris

De l’importance des mots, de l’importance des lignes, Christina Goh a en trace les tours et détours dans le périple de sa vie d’artiste, tantôt chanteuse, tantôt poétesse, tantôt essayiste. L’intelligence de s’adapter aux exigences du temps. Et le temps n’est pas le seul maitre des horloges. Car le temps cet infiniment puissant face aux tempêtes de l’existence. Il faut savoir braver le courage des écrits, braver le rêve des interdits pour se construire une vie a part. Une vie ou plutôt dix vies avec l’excellence et le courage.

Ce n’est pas tous les jours que l’on rencontre des fiches artistes avec autant de palettes de couleurs.

Christina Goh arrive à un moment de sa carrière, une étape ou l’on fait un point. Ce point est un marqueur de l’existence parallèle, car il faut savoir se balancer sur les parallèles quand le monde ne parle que d’horizontalité et de verticalité, résumé a deux courbes et rien d’autres.

Chrisitina Goh a su s’inventer sur une autre échelle du destin.

Cela fait du bien de voir et de sentir ces parallèles d’une autre existence.

Félicitons-nous de croiser son chemin…

Hellen Page

 

De Montréal à Abidjan en passant par Londres, membre du jury des 15èmes Independent Music Awards aux USA, Christina Goh a illustré sur des scènes internationales sa technique vocale pour les percussions à haute portée avec des configurations uniques : 13 cordes de basses, percussion, voix entre autres… Ainsi que des collaborations inédites avec le monde médiéval occidental. Après une douzaine de réalisations discographiques, des adaptations de titres psychédéliques inédits anglais en français et des fusions artistiques entre poésie, photographie, sciences humaines et musique, l’essayiste présente aujourd’hui son nouvel album sous le label international Plaza Mayor Company Ltd., un best of exceptionnel pour une carrière atypique ! Pour cette soirée inédite, le piano audacieux du virtuose Xavier Belin, l’accordéon groove de Maxime Perrin et le djembé conceptuel de Gotham Aymar accompagneront « la perle noire de l’afro-blues ».

https://itunes.apple.com/us/album/best-of-christina-goh/1453395584

From Montreal to Abidjan and London, member of the jury of the 15th Independent Music Awards in USA, Christina Goh has illustrated on international stages her vocal technique for high-range percussion with unique configurations: 13 bass strings, percussion, among others, voice… not to mention as well as unpublished collaborations with the Western medieval world. After a dozen recordings, adaptations of original psychedelic English titles in French and artistic fusions between poetry, photography, sciences and music, the essayist presents today her new opus, an exceptional “best of” for an atypical career under the international label Plaza Mayor Company Ltd. For this unique evening, the daring piano of virtuoso Xavier Belin, the groove accordion of Maxime Perrin and the conceptual djembe of Gotham Aymar will accompany “the black pearl of afro-blues”.

https://fanlink.to/byxB

Rejet de la publicité et du ciblage par la donnée en France, plus qu’ailleurs

En 2018, « on a découvert avec l’affaire Cambridge Analytica, qu’au-delà des fuites, il y avait une utilisation sans consentement des données. Et tout le discours de protection des données n’était qu’un discours, justement. Cela a beaucoup choqué les consommateurs, ça a fait perdre une énorme confiance » a déclaré François Nicolon, CMO à Kantar, Division Media, à l’occasion de la présentation de la troisième édition de l’étude DIMENSION aujourd’hui. Cela pose question sur la manière dont les consommateurs interagissent avec l’écosystème médiatique et vice-versa. Quelques pistes issues de l’étude qui compare la France, les Etats-Unis, la Grande Bretagne, la Chine et le Brésil.

L’efficacité de la publicite remise en cause

Pas de bond significatif cette année dans la perception et la réception de la publicité par les consommateurs. La tendance est plutôt stable, sauf en France où l’on remarque une dissonance forte par rapport aux quatre autres pays, qui tend à rejeter la publicité plus qu’ailleurs.

L’un des premiers constats de l’étude est la stabilité du taux d’adblocking (le fait d’utiliser un logiciel pour bloquer les publicités en ligne). Sur l’ensemble des personnes interrogées, 21% utilisent un adblocker de manière permanente et 32% de manière occasionnelle. « Cela montre sur les trois ans une certaine stabilité […] ; que l’on a atteint un plateau aujourd’hui sur l’utilisation de l’adblocking » renchérit François Niclon.

Deuxième constat : l’indifférence généralisée de la publicité des publics. La tendance est là aussi à la stabilité, voire même une légère amélioration de la perception de la publicité sauf en France où le rejet progresse (+2 points en un an).

Gautier Picquet, COO Publicis France & CEO Publicis Media, qui a participé à l’étude, estime qu’ « il y a un temps de créativité qui s’est réduit, et un temps de data qui a explosé. En fait, c’est une bonne balance qu’il faut retrouver. Nous devons trouver comment redonner de la créativité et de l’émotion ».

François Nicolon confirme son propos en disant que « l’on est allé trop loin dans la data » ce qui a surement joué un rôle dans cette augmentation de rejet de la publicité en France.

Troisième constat : les consommateurs ne font pas de distinction entre toutes les formes de communication (parrainages, placements de produits, messages des marques, etc.) et la publicité. 30% d’entre eux considèrent que parler d’une marque est perçue comme de la publicité.

D’après François Nicolon, cela « montre la distorsion de la manière dont un consommateur voit la démarche de communication : comme un flux de contenus. Alors que les professionnels de la publicité voient ça comme différentes spécialités des unes des autres ». Harold Geller, Executive Director d’Ad-ID qui a également participé à l’étude fait le même constat en répétant que « l’industrie de la publicité est restée en silos ».

L’un des points positifs de l’étude est que les consommateurs perçoivent une amélioration de la communication entre annonceurs et consommateurs pour atteindre 74% d’avis favorable. La France étant le seul pays où cette perception, là aussi, baisse encore. Même tendance quant à la perception de la qualité des contenus publicitaires, qui est en hausse de manière globale (pour atteindre 32% d’avis favorable), sauf en France où la tendance est contraire.

https://itunes.apple.com/us/album/purdah-original-motion-picture-soundtrack/1449901983https://fanlink.to/btR4

Dernier constat : la surexploitation de la publicité ciblée en ligne. Notamment dans le reciblage. Ce phénomène est ambivalent car « le consommateur préfère avoir des messages qui lui soient spécifiquement diffusés » mais en revanche « il va répondre négativement quant au fait d’être ciblé sur la base de sa navigation internet ». Or l’un est indissociable de l’autre.

Le rejet en France est massif : 61% des consommateurs refusent d’être ciblés sur la base de leurs précédentes navigations (vs 54% au niveau global). 70% des consommateurs se disent las de revoir encore et encore le même message. « Depuis 2017, les verbatims à son encontre sont toujours négatif et ça ne change pas. Ce n’est pas un souci traité par le marché actuellement. Or c’est le principal problème pour le consommateur aujourd’hui » argumente François Nicolon.

La clé : authenticité & harmonisation

L’étude DIMENSION 2019 souligne que les consommateurs attendent des actions plus radicales des médias, des marques et de la communication pour regagner cette confiance et donc son efficacité. Pour François Nicolon, « il faut des messages honnêtes pour des marques honnêtes qui vendent des produits honnêtes. C’est ça aujourd’hui qui fonctionne ».

L’un des principaux obstacles pour atteindre cet objectif est la « corde raide » sur laquelle les marques sont en permanence. Le « sans faute est obligatoire » sous peine de mettre en péril le storytelling instauré par la marque.

Plusieurs pistes sont évoquées dans le rapport de l’étude pour regagner cette confiance :

https://fanlink.to/btR4

  • L’instauration de conversation entre la marque et le consommateur est vitale d’après Amélie Aubry, Brand Managing Director chez Elan Edelman France : « ce que l’on recherche maintenant [pour les marques], c’est de la conversation ; l’émotion est nécessaire mais pas suffisante quand on fait face à autant de défiance. Notre objectif est de regagner la confiance des consommateurs, ou plutôt des citoyens ! »
  • La transparence des marques et l’utilisation des données de manière responsable est essentiel car « les consommateurs étant de mieux en mieux informés et conscients des problèmes d’utilisation et de confidentialité des données, il faut non seulement que les publicités soient perçues comme telles, mais surtout veiller à ce que le message délivré soit authentique » comme le souligne le rapport.
  • Travailler sur le contexte publicitaire est aussi nécessaire « pour regagner l’intérêt et la confiance des consommateurs. Sinon on va avoir des consommateurs massivement indifférents à la publicité dans le meilleur des cas, voire qui vont rejeter la publicité » poursuit François Nicolon.
  • Un autre enjeu pour les marques est de comprendre par quel biais les consommateurs cherchent de l’information sur les marques pour adapter au mieux les canaux de communication : 72% sur internet ; 53% auprès des proches ; et seulement 31% via la publicité. Ce n’est pas donc pas prioritairement vers la publicité que les consommateurs se tournent pour chercher des informations. D’autant plus que c’est la source estimée la moins fiable pour aller chercher de l’information, phénomène d’autant plus accentué en France :
  • Le rapport suggère que « le paid media peut diriger les publics vers le earned et le owned media, qui ont davantage la confiance des consommateurs. Tant les médias offline que online ont un rôle à jouer comme sources d’informations sur les marques ».

    François Nicolon insiste sur le fait que « la publicité n’est pas suffisante pour construire de la confiance. Le danger est de considérer l’ensemble de ces éléments en silos, car les consommateurs assimilent cela à de la communication commercial. C’est la raison pour laquelle il faut harmoniser les moyens de communications dans une campagne complètement intégrée ».

Le numérique, moteur du marché de la publicité en France en 2018

La publicite  en France se porte bien, merci pour elle. L’Institut de Recherches et d’Etudes Publicitaires (IREP), France Pub et Kantar Media ont présenté les résultats du BUMP, baromètre unifié du marché publicitaire. Croissance à deux chiffres pour le numérique, stabilité pour les autres investissements publicitaires ou encore poussée de l’affichage DOOH, Méta-Media revient sur la présentation des résultats du marché publicitaire en 2018.

Un marché global en croissance

A périmètre égal, il aura fallu onze années au marché global de la communication pour retrouver son niveau d’investissement publicitaire d’avant la crise des subprimes. En 2007, le montant net global des investissements en communication des annonceurs s’établissait à 33,15 milliards d’euros. En 2018, il s’établit à 33,33 milliards d’euros, en croissance de 2,3% par rapport à 2017. C’est le plus haut niveau jamais atteint par le marché.

C’est « le maintien de la croissance qu’on avait retrouvé depuis deux ans » nous confie Xavier Guillon, Fondateur et Directeur général de France Pub. « L’ensemble de la croissance du marché est tiré par les médias digitaux » poursuit-il. Parmi les médias digitaux, sont comptabilisés « les médias propriétaires et l’internet classique »Ils représentent environ 20% du marché global, soit 6 milliards d’euros et ont connu une croissance de 14,7% sur l’année. Les médias propriétaires sont ceux qui ont été le plus été investis avec pas moins 3,4 milliards d’euros dépensés, enregistrant une croissance de 16,8% par rapport à 2017.

L’année 2018 a connu une forte hausse grâce au phénomène de la coupe du monde de football. Ces valeurs restent relativement élevées jusqu’à la fin de l’année par rapport à l’année précédente avant de connaître une vraie chute au mois de décembre suite à la crise des Gilets Jaunes. Par rapport aux trois mois précédents, le mois de décembre accuse une baisse de 4,5%.

Médias digitaux, télévision et DOOH, locomotives des recettes publicitaires des médias

Les recettes publicitaires globales des médias s’établissent en 2018 à 14,443 milliards d’euros soit une progression de 4,2% par rapport à l’année dernière. En plus des recettes « historiques » des médias, sont inclues pour la première fois dans cette comptabilisation les recettes issues du numérique. Là aussi, « le secteur est tiré par le digital » enchérit à son tour Christine Robert, Directrice déléguée de l’IREP.

 

En regardant de plus près, les recettes liées aux extensions des marques médias en digital (c’est-à-dire l’ensemble des plateformes des médias en excluant les pureplayers détenus par des groupes médias, comme Aufeminin par TF1) ont joué un rôle majeur cette année en engrangeant près de 400 millions d’euros de recettes soit une croissance de 9,4% en un an. Dans une autre étude menée

quelques mois plus tôt, le SRI revient sur le détail de l’ensemble des recettes publicitaires  digitale, le search et le display social enregistrant les recettes les plus importantes. Cette année n’est que la confirmation des années précédentes, où la croissance du numérique est bien supérieure à celle de l’ensemble du marché.

La télévision est l’autre média qui tire les recettes publicitaires vers le haut. Avec 3,43 milliards d’euros de recettes en 2018, ce marché croît de 2,4% par rapport à 2017.Cette croissance provient principalement des revenus générés par le parrainage qui croît de 32,7% sur l’année, sachant qu’il représente entre 9% et 10% des recettes de la télévision. Elle s’explique par l’assouplissement des critères du parrainage opéré en 2017. L’autre levier de croissance est le numérique qui croît de 14,2%, et qui représente entre 4% et 5% des recettes globales. La vente d’espaces publicitaires classiques est quant à elle stable (-0,3%) mais représente toujours près de 85% des recettes totales.

La publicité extérieure enregistre une progression de 2,3% atteignant 1,24 milliards d’euros de recettes. Cette croissance est massivement soutenue par l’affichage DOOH qui affiche 22,3% de croissance par rapport à 2017.

Les recettes publicitaires des autres médias sont quant à elles en stagnation ou en récession, malgré des croissances significatives dans le digital. Le problème majeur vient de la trop faible part que représente le numérique dans les recettes pour compenser la baisse des autres : les recettes publicitaires de la radio atteignent 701 millions d’euros (stagnation par rapport à 2017 à -0,2%, avec une tendance à la baisse pour les radios locales) ; celles de la presse (PQN, PQR, PHR, Magazines, Presse spécialisée, Gratuits) accusent toutes un recul, celles des magazines étant les plus touchées accusant une chute de 8,5%. Les recettes dans l’adressage suivent le même chemin que celles de la presse, la plus grande perte étant attribuée aux annuaires qui perdent 7,5% par rapport à 2017 pour un total de 693 millions d’euros.

https://itunes.apple.com/us/album/i-am-not-an-easy-man-original-motion-picture-soundtrack/1411995995

Les recettes publicitaires du cinéma, très dépendantes des entrées en salles accusent cette année une baisse de 3,5%. « Le résultat est à nuancer. Comme c’est un petit marché, il est plus soumis aux aléas. Mais tendanciellement, il suit la courbe de croissance du marché » argumente Christine Robert.

Elle attire notre attention sur « un média à regarder » à savoir celui de l’audio numérique(podcasts et plateformes de streaming musical). Ce média a enregistré 1,2 milliards d’impressions, soit une augmentation de 12% par rapport à l’année dernière et un intérêt massif des annonceurs qui sont 79% de plus qu’en 2017 pour un total de 379.

Une croissance portée par l’ensemble des secteurs d’activité

Le BUMP décompose les investissements publicitaires selon les secteurs d’activités, à savoir l’industrie, les biens de consommation, la distribution et les services. En 2018, chaque secteur connait de la croissance. L’industrie étant celui qui a le plus investi en proportion avec une augmentation de 5,8% (soit 2,9 milliards d’euros de dépenses au total). C’est la deuxième année consécutive de forte croissance pour l’industrie, « même si la tendance était baissière lors des dix dernières années » nous affirme Xavier Guillon. Quant à la distribution, « c’est le seul secteur depuis dix ans à être en progression continue ». Le secteur des services, « compte-tenu de son poids très important, près de 11 milliards d’euros et de cette très forte progression (3,9%), ce secteur explique à lui seul la moitié de la croissance du marché publicitaire cette année » analyse-t-il.

PROJECT GUTENBERG (Original Motion Picture Soundtrack) Director Felix Chong

PROJECT GUTENBERG (Original Motion Picture Soundtrack)

Director Felix Chong

Cast Yun-Fat Chow, Aaron Kwok, Jingch Zhang…

Music composed by Day Tai

5 nominations at the 13th Asian Film Awards (17th March 2019)

Quand les musiques de films épousent actions et suspenses d’un scenario, ça donne un peu de vertige, beaucoup de sensation et un soupir de satisfaction. Une musique a l’image qui en dit long sur l’histoire, le feu et le jeu des acteurs. Une musique a l’image qui trotte dans la tête, devenant refrain et ritournelle, devenant le parfum excentrique et le subtil mélange des genres. Day Tai, jeune compositeur de Hong Kong, nous fait cette surprise de nous révéler les pages d’une histoire rocambolesque, bien jouée et bien filmée. Un Chow Yun-Fat au sommet de sa forme, de son élégance. Un Felix Chong qui a fait plus que filmer mais donne une âme a ce qui pourrait un simple polar Hongkongais. L’image est d’une précision, les acteurs d’une telle révérence, et la musique suit, amené, et bouleverse tous ses billets de banque sortis d’une imagination et d’une imprimante frauduleuse. Evidement règlements de compte et sangs mêlés surgissent de ci, de la, évidement les passions et les trahisons sont à la hauteur de ces gangsters de haut vol. Un faussaire détourne de son chemin d’artiste, un maitre chanteur tellement irréel. Ici les cordes de l’orchestre philharmonique de Sofia, la les guitares saturées, et des voix fredonnâtes. Day Tai aura su composer une très belle partition toute en finesse dans un brouillon de cartes et de mondes pervers. Ecoutez les plages musicales de ce jeune talent.

Hellen Page

https://itunes.apple.com/us/album//1451355076

5 nominations at the 13th Asian Film Awards (17th March 2019)

The Hong Kong police is hunting a counterfeiting gang led by a mastermind code-named “Painter” (Chow Yun-fat). The gang possesses exceptional counterfeiting skills which makes it difficult to distinguish the authenticity of its counterfeit currency. The scope of their criminal activities extends globally and greatly attracts the attention of the police. In order to crack the true identity of “Painter”, the police recruits a painter named Lee Man (Aaron Kwok) to assist in solving the case.

https://fanlink.to/bsgk

原創音樂   :   戴偉

Original Music:   Day Tai

結他,電結他,鍵琴All Guitars, Keyboard: 戴偉 (Day Tai)

鋼琴 Piano: 李寶瑜 (Labroe Lee)

敲擊樂及鼓 Percussion and Drums: 黃偉勳 (Steffunn)

低音結他Bass : 陳兆基 (Chan Siu Kei)

手碟 Hand Pan: Edmund Leung

敲擊樂錄音室 Recording Studio for Drum Session: GIG Studio

敲擊樂錄音工程師 Recording Engineer for Drum Session: Tsam Chan

音樂混音工程師 Music Mixing Engineer: 鄧明東 (Tang Ming Tung)

演奏Performed by:

索菲亞西樂團(保加利亞)

Sofia Session Orchestra & Choir (Bulgaria)

“Tech Trends 2019”, Amy Webb décrypte notre avenir dominé par l’IA

Injecter des nuages en eau de mer dans le ciel pour réguler la température, se retrouver enfermés dans notre smart-home avec un micro-ondes qui refuse de nous préparer à manger parce qu’il a décidé que nous avons besoin d’un régime, un service premium payant réservé aux riches pour bénéficier de la protection des données – voici quelques scénarios de notre futur possible. Amy Webb, la fondatrice de l’Institut Future Today et professeure à la New York University Stern School of Business a publié ce week-end son rapport “Tech Trends 2019” lors du festival SXSW à Austin, Texas.

Pour cette 12ème édition de son ouvrage visionnaire sur les enjeux à suivre à court et long terme, 315 tendances dans la tech et la science ont été détectées (+30% par rapport aux précédents rapports), une augmentation due à l’accélération des technos l’année dernière, des biotechnologies aux réalités mixtes, en passant par les satellites ou encore le transport. Comme pour la dernière décennie, le rapport est dominé par l’IA comme enjeu principal pour l’ensemble des secteurs, y compris les médias.

Déclinées en 48 scénarios calculés par des algos, elles prédisent un avenir mi optimiste (17) mi catastrophique (11), et incitent surtout à l’action.

La méthode
Quel rapport entre Walmart et les genomes ? S’il fallait retenir une idée de ce rapport de 381 pages c’est bien qu’il ne suffit pas de regarder sa propre industrie pour comprendre les tendances à venirLes technos convergent de plus en plus : impression 4D, décryptage des génomes avec CRISPR-Cas9, micro-agriculture combinés feront que nos aliments en 2030 ne viendront plus de l’Amazonie, mais bien d’Amazon, qui a d’ailleurs annoncé la semaine dernière la sortie une nouvelle chaîne d’épiceries. Pour prévoir efficacement le futur, selon Amy Webb, les entreprises devraient modifier leur relation au temps pour trouver le bon équilibre entre décisions tactiques, stratégiques et visions à long terme.

7 idées clés à emporter du rapport 2019

1. La mort de la vie privée

En 2019, nous sommes devenus des machines produisant perpétuellement des données (de façon volontaire ou non), à travers l’utilisation de nos smartphones, smart-speaker ou dans nos smart-homes tout court. Un nouvel enjeu pour les entreprises qui traitent nos données : stocker et protéger les données, et éviter les biais dans leur utilisation.

2. VSO est le nouveau SEO 

D’ici fin 2020 la moitié de nos interactions avec des ordinateurs se fera par la voix. La “Voice Search Optimization” vient alors le nouvel enjeu pour être trouvé dans un océan de contenus. Selon Amy Webb40% des ménages américains seront équipés d’un assistant vocal d’ici fin 2019.

3. La domination des “Big Nine”

La recherche autour de l’IA est aujourd’hui concentrée entre les mains de seulement 9 companies tech (Google, Amazon, Microsoft, Apple, IBM et Facebook aux US, et Baidu, Alibaba and Tencent en Chine). Les labos de recherche dépendent de leurs données, outils et moyens. Des systèmes d’IA complexes seront construits sur l’un de ces environnements, des décisions difficilement réversibles.

4. PDR, un dossier de données personnelles

Des compilations de l’ensemble de nos données, des données d’utilisation de nos smartphones à nos diplômes d’école, qui seront passées de génération en génération, et dont nous serons, normalement, les propriétaires. Cette tendance sera soutenue par les moyens de la reconnaissance faciale et vocale, de la détection de la structure de nos os (sur laquelle travaille l’armée aux US) et même de la reconnaissance de personnalité.

5. L’ascension continue de la Chine, non seulement en IA

La tendance évoquée l’année dernière est confirmée. Conquête de l’espace, nouvelle génération d’Internet, édition des génomes, voitures électriques… “Aucun autre gouvernement est dans la course vers l’avenir de façon aussi contrôlée et véloce”, même si un ralentissement de l’économie signifiera aussi une décélération dans ces industries. Un rapport de l’institut Elsevier voit la Chine comme la puissance dominante en IA dans les 5 années à venir.

6. La réglementation juridique des nouvelles technos

Les juristes du monde entier sont dépassés par la vitesse et l’étendue des développements de nouvelles technos, et il leur sera difficile de proposer des lois adéquates.

7. La consolidation

La collaboration entre géants de la tech, médias et robotique est bénéfique pour les développements techniques, mais attire aussi l’attention des régulateurs.

La robotique moléculaire, des collaborations de robots, des robots hackés par des humains, des flottes de drônes et leurs centres de contrôle, des bateaux autonomes et voitures sous-marines et le retour du voyage supersonique sont d’autres tendances évoquées dans le rapport. Amy Webb dresse aussi la liste des villes les plus “smart”, avec en numéro 1 cette année Copenhague, suivie d’autres capitales nordiques. Pas étonnant quand on connaît leur puissance en termes d’innovation.

Les enjeux pour les médias

Un chapitre est consacré aux tendances détectées pour le secteur des médias, de l’édition et des réseaux sociaux. L’IA y est évidemment prédominante, avec des compétences à acquérir d’urgence.

Maîtriser les algorithmes et les données

Des compétences nouvelles sont demandées aux journalistes pour investiguer des sujets autour de l’IA et les algos. Il est plus que jamais important de rendre transparent le fonctionnement des algos, pour comprendre d’où vient une information et comment elle est diffusée. Nous arriverons bientôt au point critique où nous ne serons plus capables de distinguer entre un jeu de données détérioré volontairement ou modifié accidentellement. Le reportage assisté par ordinateur est augmenté par l’IA et permet, grâce à l’indexation multilingue, à l’extraction d’entités, à la visualisation algorithmique et à l’analyse multidimensionelle des jeux de données pour trouver des liens impossibles à détecter auparavant. Le “crowdlearning” scrute en parallèle les comportements des utilisateurs sur les plateformes pour en déduire des tendances. La demande de compétences dans ces domaines sera exponentielle pour les rédactions, mais difficile à satisfaire pour le service public, qui manque de moyens pour attirer ce type de profils. Il s’agira non seulement d’être capable d’utiliser l’IA pour investiguer des masses de données, mais aussi d’investiguer sur les IA et les algos eux-mêmes.

https://www.amazon.fr/Budapest-Original-Motion-Picture-Soundtrack/dp/B079ZV79FN/ref=sr_1_fkmr0_1?__mk_fr_FR=%C3%85M%C3%85%C5%BD%C3%95%C3%91&keywords=atty+pacsay&qid=1552451270&s=music&sr=1-1-fkmr0

Pour entraîner l’IA, on manque aujourd’hui cruellement de jeux de données fiables. Des chercheurs du Data to AI Lab au MIT Laboratory for Information and Decision Systems sont en train, grâce au machine learning, de créer des jeux de données synthétiques (SynLBD) pour éviter les biais des bases d’entraînement habituels, comme les fameux emails d’Enron. Selon Amy Webb, ces jeux de données artificiels seront de plus en plus importants. L’IA aidera aussi au fact-checking automatisé par des algorithmes, sans qu’Amy Webb n’aille cependant plus en détail sur cette partie (le mot blockchain n’est même pas évoqué dans cette partie du rapport).

Elle évoque en revanche le besoin d’une “transparence radicale” désormais, pour contrer la perte de confiance à laquelle sont confrontés les les médias, depuis les scandales Cambridge Analytica, les élections US et la diffusion continue de fake news.

Tirer profit des nouvelles technologies pour rendre un service personnalisé et créer l’engagement

La GAT (Génération automatique de textes) pourra servir aux médias pour proposer non seulement une seule version d’un texte, mais pour adapter le texte aux différents publics. Les données annuelles du Berkshire Hathaway’s pourraient ainsi être présentées différemment à un public d’experts de la finance, d’étudiants ou de non professionnels, et peuvent aider à atteindre de nouvelles cibles. Les médias peuvent aussi renforcer leur relation avec l’audience par les plateformes de messageries, qui concentreront, à l’instar de WeChat, de plus en plus de fonctionnalités, avec un enjeu important de monétisation grâce à un service personnalisé.

https://itunes.apple.com/us/album/budapest-noir-original-motion-picture-soundtrack/1314961534

Dans le même sens, l’apparition de rédactions éphémères et d’éditions limitées très ciblées pour un seul événement permettra d’atteindre des cibles spécifiques et de proposer des modèles publicitaires efficaces. Le retour des newsletters et podcasts, mais aussi l’évolution des réalités mixtes, permettent d’atteindre une audience de niche, et les modèles “One to few” vont encore grandir, le journalisme se transformant en réel “service“.

Des nouveaux formats audio et visuels permettront d’engager davantage l’audience. Interactivité, immersion et personnalisation sont les 3 enjeux clés. Bandersnatch de Netflix n’est qu’un début. A l’instar de la maison de production Eko qui crée des expériences vidéos interactives, ces nouvelles narrations vont se diffuser plus largement, notamment aussi avec des nouveaux formats pour les assistants vocaux et les réalités mixtes. Eko est d’ailleurs en train de construire une plateforme pour Walmart.

La fragilité numérique, consolidation… et fragmentation des offres 

Des contenus uniquement accessibles en ligne créent une nouvelle fragilité. Des sites fermés à cause de problèmes économiques, comme The Village Voice, avec des reportages d’investigation récompensées, le Rocky Mountain News, ou encore le Tampa Tribune coupent du jour au lendemain l’accès à des informations. A la fin d’un partenariat entre Microsoft et la NBC, le projet a été dépublié. Sous le gouvernement Trump, de nombreuses études et statistiques auparavant accessible en ligne ont été dépubliées. Des solutions pour garantir une archive numérique accessible sont à trouver.

Coupures dans les budgets des rédactions, dépendance de plus en plus grande envers les agences de presse, regroupement de médias et dérégulation par le FCC créent un déséquilibre dans le paysage média US, avec des déserts de désinformation naissant dans les zones rurales. Une menace pour la démocratie qui n’est pas prête de s’arranger avec la reprise de grands médias par des investisseurs (Fortune vendu à l’homme d’affaires thaïlandais Chatchaval Jiaravanon, Quartz acheté par le japonais Uzabase, Forbes vendu à un groupe à Hong Kong, et le New York Times en négociation avec Ev Williams). En même temps, le paysage audiovisuel continue à se fragmenter, avec la saturation du marché OTT et streaming (Disney lance son service cette année, AT&T, Viacom and Discovery sont à venir). Le contenu est de plus en plus fragmenté, et le choix devient difficile.

Dans un monde de la post-vérité, de nouvelles formes de luttes émergent

« Le sort de la vérité a toujours été très fragile », a déclaré il y a quelques jours Edgar Morin lors du colloque sur la post-vérité à la Cité des sciences et de l’industrie à Paris. A cette occasion, chercheurs, décideurs publics et professionnels des médias ont décrit cette société de la désinformation, rétablit quelques faits sur les fake news et proposé quelques pistes pour lutter contre l’infox. 

Un monde pris dans les mailles de la post-vérité

Le terme de « post-vérité » a été utilisé pour la première fois en 2004 par l’écrivain américain Ralph Keyes. Il décrit la post-vérité comme l’apparition d’un système ou d’une société où la différence entre le vrai ou le faux n’a plus d’importance. Cette définition a éclaté aux yeux du monde en 2016 avec le vote pour le Brexit et l’élection de Donald Trump à la présidence des Etats-Unis. Et fake news a été élu terme de l’année 2017.

La montée des populismes va de pair avec la post-vérité, car leurs leaders cherchent ce clivage avec ceux qui sont censés savoir : le pouvoir, les élites. Et le relativisme de l’opinion l’a emporté. L’affirmation de faits absolument faux sont analysés comme s’ils étaient vrais.

Michel Wieviorkaprésident de la Fondation Maison des sciences de l’homme (FMSH) et directeur d’études à l’Ecole des hautes études en sciences sociales (EHESS) parle même « d’effondrement du système d’information classique ». Pour Myriam Revault d’Allonnes, philosophe et chercheuse associée au CEVIPOF à Sciences Po, « la post-vérité porte non pas atteinte à une vérité de type rationnelle ou théorique mais porte atteinte très profondément à la capacité de juger des citoyens qui se trouve très profondément ébranlée à partir du moment où le débat d’idées met en jeu des opinions qui n’ont même plus besoin d’être appuyés sur des faits ». Le débat d’idées est donc bien biaisé par les infox.

Le phénomène est, on le sait désormais, accentué par les réseaux sociaux, qui en ont industrialisé la pratique et qui s’en auto-nourrissent du fait des biais structurants des algorithmes. Le sociologue Dominique Cardon a parlé de la polarisation du web, c’est-à-dire de la formation d’une bulle idéologique où des opinions similaires encouragent une radicalisation des prises de parole sur cet espace. Francesca Musiani, chargée de recherche au CNRS, fait état de « mise en silo » car le partage de l’information répond à des logiques d’affinité et de proximité. C’est notamment le cas du référencement du Google qui se fait par popularité mais pas uniquement.

Depuis 2010, Google a introduit dans son algorithme PageRank une personnification du résultat qui se base sur les sites précédemment consultés et les recherches récentes, accentuant de facto ce phénomène. L’activiste Eli Pariser parle même d’espaces cognitifs clos, qui conforterait chacun dans ses opinions. Ce sont évidemment des effets collatéraux du modèle économique du moteur de recherche, mais qui favorise et renforce le maillage de la post-vérité dans notre société. C’est d’autant plus vicieux, explique Romain Badouard, maître de conférence à l’université Paris 2 Panthéon-Sorbonne, qu’il s’agit en fait d’une forme de propagande intérieure indolore et satisfaisante.

 3 chiffres à retenir :

  • 2004 – L’année d’apparition du mot post-vérité
  • – Sur Twitter, les fake news se propagent 6 fois plus vite que les informations vérifiées
  • -35 – Les moins de 35 ans ayant un faible niveau d’études sont ceux qui croient le plus aux infox

« From the bottom » : développer chez les jeunes un système de pensée analytique

Cette notion de « satisfaction » est fondamentale dans le processus cognitif. Selon le sociologue Gerald Bronner, « la robustesse d’une proposition intellectuelle n’est peut-être que la satisfaction intellectuelle qu’elle produit dans le cerveau de ceux qui l’accueillent ». Il est ici question de biais cognitif. Ce n’est donc pas lié à la qualité de son argumentation mais à l’intuition, à la satisfaction que le cerveau reçoit dans un premier temps.

https://itunes.apple.com/hk/album/35/1347272056?l=en

Dans le prolongement de sa pensée, Gerald Bronner montre que cet aspect psychologique est intimement lié avec l’aspect social, dans la mesure où les fake newssont généralement « enrobées » dans des narrations idéologiques, politiques qui vont accélérer la puissance de diffusion de ces biais. La situation concurrentielle entre les infox et les informations vérifiées est donc problématique.

Pour lutter face à cela, Gerald Bronner préconise une nouvelle forme de régulation : une régulation individuelle. Cette forme de régulation consiste à développer un esprit critique, on parle même de « système de pensée analytique ». Scientifiquement, il a été prouvé que la stimulation de la pensée analytique réduit l’adhésion à des théories complotistes. C’est la raison pour laquelle le sociologue recommande d’apprendre aux élèves du cycle primaire jusqu’à l’université le fonctionnement de leur cerveau. Le principal biais dont il est question est le biais de la taille de l’échantillon. Biais sur lequel s’appuie principalement les infox. Par exemple, un compte Twitter avait « prédit » les attentats de Paris deux jours avant le 13 novembre.

Ce compte était en fait un bot qui publiait massivement des tweets sur des attentats fictifs partout dans le monde dans le seul but de susciter des clics. La probabilité que la teneur tweet soit réelle était donc très faible, mais nécessairement, avec un grand nombre de tentatives, la probabilité qu’un des tweets soit « juste » augmentait. Initier les élèves à ce type de situation pourrait permettre de lutter un peu plus efficacement sur le long terme contre les fake news.

« From the top » : pour un pacte sur l’information et la démocratie

Reporters sans frontières a, de son côté, initié en novembre 2018 un pacte pour la démocratie afin de « traiter non pas les phénomènes mais les causes de ce dérèglement de l’espace public » d’après Christophe Deloire, secrétaire général de RSF. Le problème majeur, selon lui, est lié au décalage entre la protection de la liberté d’expression et d’opinion, historiquement créée au niveau national (cf Loi Bichet, Loi de 1986, etc.) et la réalité de l’espace globalisé. Aujourd’hui tout le monde peut interférer dans l’espace public d’une démocratie même en étant à l’autre bout du monde. « La place du village qui, autrefois était une compétence des Etats, est déléguée à des entités privées ou étatiques d’autres pays. Ça peut être Mark Zuckerberg aussi bien que Xi Jinping ».

https://www.amazon.fr/35-Masa%C3%A9-Gimbayashi-Barbotte/dp/B07B1XPYJW/ref=sr_1_3?s=music&ie=UTF8&qid=1550344072&sr=1-3&keywords=masae+gimbayashi

C’est pourquoi RSF a créé une commission sur l’information et la démocratie, composée de 25 personnalités de 18 nationalités différentes. Y figurent des lauréats du prix Nobel, des spécialistes des nouvelles technologies, des journalistes, des juristes et des anciens dirigeants d’organisations internationales. Cette commission a édicté une déclaration qui « vise à entrer dans cette nouvelle logique afin de définir les obligations des entités structurantes de l’espace public ». RSF a donc sélectionné douze pays qui vont s’engager à signer un pacte sur l’information et la démocratie sur la base de la déclaration évoquée ci-dessus. Le but est, à terme, de créer une entité qui associera des experts indépendants qui pourra édicter des propositions avec un monopole de l’initiative et qui pourront être mises en œuvre par des Etats.

Elle repose sur des principes forts :

  • Le droit à l’information fiable
  • La liberté de la presse
  • La vie privée
  • La responsabilité des participants du débat public
  • La transparence des pouvoirs

En parallèle, RSF mène un combat en amont dans les process de fabrication de l’info. On parle ici de market regulation et self regulation. L’ONG préconise une standardisation des méthodologies du journalisme conçue par des experts indépendants, base à partir de laquelle ils pourraient construire un outil qui permettrait de mesurer l’intégrité d’une source d’information, une sorte de label. Cela permettrait aux plateformes d’intégrer cet outil dans leurs algorithmes pour pondérer certaines sources d’informations en fonction de ce critère objectif.