STREAMING IS GETTING BIGGER IN JAPAN, WITH THE LIKES OF SPOTIFY GENERATING OVER $380M IN MARKET LAST YEAR

The big story in the country in 2019, aside from a slight dip in these overall revenues (to 299.76bn Yen) was the rise of streaming services.

According to new stats published by local trade body RIAJ and crunched by MBW, subscription and ad-funded audio streaming services like Spotify generated $385m (41.97bn Yen) for the industry in Japan in 2019, representing growth of 33.8% on the 31.37bn Yen generated by the format in 2018.

Indeed, audio streaming revenues in Japan nearly doubled just in the two years between 2017 (23.89bn Yen) and 2019 (41.97bn).

With both video and audio included, Japan’s monetary streaming haul in 2019 rose to $426m (46.53bn Yen).

CD, though, very much remains king of the market.

The physical format saw its revenues fall by just 3.0% in Japan at the Yen level in 2019, generating a whopping $1.37bn (149.55bn Yen) in the year.

What impact did this all have on the make-up of Japan’s recorded music business?

In the pie charts below, MBW pits the annual (Yen-level) revenue of audio streaming in Japan (including subscription and ad-funded) against CD and download across both 2018 and 2019.

These charts are strictly audio only – the RIAJ offers a wealth of music video statistics that you can peruse at your leisure. These charts also do not include periphery digital formats (ringback tones, master ringtones, other non-streaming/download revenue).

As you can see, streaming claimed 19.3% of Japan’s audio music market revenues in 2019, up from 14.6% in the prior year.

CD, though, continued to clearly dominate, with 68.9% of all audio-related music revenues in 2019 – though this was down slightly on the 71.9% the format claimed in 2018.

In a nutshell, then, streaming is definitely becoming a more significant part of the Japanese recorded music market as the years tick on… but it’s still worth less than a third of the revenues being generated for the industry by Japan’s favorite format, the CD.

To put into perspective the overall size of Japan as a recorded music market, the RIAJ’s figures here are believed to be wholesale numbers.

This allows us to simply compare Japan’s size ($2.75bn) to that of the USA, where the RIAA just confirmed that, on a wholesale basis, the market was worth $7.3bn in 2019.

Dans un monde de la post-vérité, de nouvelles formes de luttes émergent

« Le sort de la vérité a toujours été très fragile », a déclaré il y a quelques jours Edgar Morin lors du colloque sur la post-vérité à la Cité des sciences et de l’industrie à Paris. A cette occasion, chercheurs, décideurs publics et professionnels des médias ont décrit cette société de la désinformation, rétablit quelques faits sur les fake news et proposé quelques pistes pour lutter contre l’infox. 

Un monde pris dans les mailles de la post-vérité

Le terme de « post-vérité » a été utilisé pour la première fois en 2004 par l’écrivain américain Ralph Keyes. Il décrit la post-vérité comme l’apparition d’un système ou d’une société où la différence entre le vrai ou le faux n’a plus d’importance. Cette définition a éclaté aux yeux du monde en 2016 avec le vote pour le Brexit et l’élection de Donald Trump à la présidence des Etats-Unis. Et fake news a été élu terme de l’année 2017.

La montée des populismes va de pair avec la post-vérité, car leurs leaders cherchent ce clivage avec ceux qui sont censés savoir : le pouvoir, les élites. Et le relativisme de l’opinion l’a emporté. L’affirmation de faits absolument faux sont analysés comme s’ils étaient vrais.

Michel Wieviorkaprésident de la Fondation Maison des sciences de l’homme (FMSH) et directeur d’études à l’Ecole des hautes études en sciences sociales (EHESS) parle même « d’effondrement du système d’information classique ». Pour Myriam Revault d’Allonnes, philosophe et chercheuse associée au CEVIPOF à Sciences Po, « la post-vérité porte non pas atteinte à une vérité de type rationnelle ou théorique mais porte atteinte très profondément à la capacité de juger des citoyens qui se trouve très profondément ébranlée à partir du moment où le débat d’idées met en jeu des opinions qui n’ont même plus besoin d’être appuyés sur des faits ». Le débat d’idées est donc bien biaisé par les infox.

Le phénomène est, on le sait désormais, accentué par les réseaux sociaux, qui en ont industrialisé la pratique et qui s’en auto-nourrissent du fait des biais structurants des algorithmes. Le sociologue Dominique Cardon a parlé de la polarisation du web, c’est-à-dire de la formation d’une bulle idéologique où des opinions similaires encouragent une radicalisation des prises de parole sur cet espace. Francesca Musiani, chargée de recherche au CNRS, fait état de « mise en silo » car le partage de l’information répond à des logiques d’affinité et de proximité. C’est notamment le cas du référencement du Google qui se fait par popularité mais pas uniquement.

Depuis 2010, Google a introduit dans son algorithme PageRank une personnification du résultat qui se base sur les sites précédemment consultés et les recherches récentes, accentuant de facto ce phénomène. L’activiste Eli Pariser parle même d’espaces cognitifs clos, qui conforterait chacun dans ses opinions. Ce sont évidemment des effets collatéraux du modèle économique du moteur de recherche, mais qui favorise et renforce le maillage de la post-vérité dans notre société. C’est d’autant plus vicieux, explique Romain Badouard, maître de conférence à l’université Paris 2 Panthéon-Sorbonne, qu’il s’agit en fait d’une forme de propagande intérieure indolore et satisfaisante.

 3 chiffres à retenir :

  • 2004 – L’année d’apparition du mot post-vérité
  • – Sur Twitter, les fake news se propagent 6 fois plus vite que les informations vérifiées
  • -35 – Les moins de 35 ans ayant un faible niveau d’études sont ceux qui croient le plus aux infox

« From the bottom » : développer chez les jeunes un système de pensée analytique

Cette notion de « satisfaction » est fondamentale dans le processus cognitif. Selon le sociologue Gerald Bronner, « la robustesse d’une proposition intellectuelle n’est peut-être que la satisfaction intellectuelle qu’elle produit dans le cerveau de ceux qui l’accueillent ». Il est ici question de biais cognitif. Ce n’est donc pas lié à la qualité de son argumentation mais à l’intuition, à la satisfaction que le cerveau reçoit dans un premier temps.

https://itunes.apple.com/hk/album/35/1347272056?l=en

Dans le prolongement de sa pensée, Gerald Bronner montre que cet aspect psychologique est intimement lié avec l’aspect social, dans la mesure où les fake newssont généralement « enrobées » dans des narrations idéologiques, politiques qui vont accélérer la puissance de diffusion de ces biais. La situation concurrentielle entre les infox et les informations vérifiées est donc problématique.

Pour lutter face à cela, Gerald Bronner préconise une nouvelle forme de régulation : une régulation individuelle. Cette forme de régulation consiste à développer un esprit critique, on parle même de « système de pensée analytique ». Scientifiquement, il a été prouvé que la stimulation de la pensée analytique réduit l’adhésion à des théories complotistes. C’est la raison pour laquelle le sociologue recommande d’apprendre aux élèves du cycle primaire jusqu’à l’université le fonctionnement de leur cerveau. Le principal biais dont il est question est le biais de la taille de l’échantillon. Biais sur lequel s’appuie principalement les infox. Par exemple, un compte Twitter avait « prédit » les attentats de Paris deux jours avant le 13 novembre.

Ce compte était en fait un bot qui publiait massivement des tweets sur des attentats fictifs partout dans le monde dans le seul but de susciter des clics. La probabilité que la teneur tweet soit réelle était donc très faible, mais nécessairement, avec un grand nombre de tentatives, la probabilité qu’un des tweets soit « juste » augmentait. Initier les élèves à ce type de situation pourrait permettre de lutter un peu plus efficacement sur le long terme contre les fake news.

« From the top » : pour un pacte sur l’information et la démocratie

Reporters sans frontières a, de son côté, initié en novembre 2018 un pacte pour la démocratie afin de « traiter non pas les phénomènes mais les causes de ce dérèglement de l’espace public » d’après Christophe Deloire, secrétaire général de RSF. Le problème majeur, selon lui, est lié au décalage entre la protection de la liberté d’expression et d’opinion, historiquement créée au niveau national (cf Loi Bichet, Loi de 1986, etc.) et la réalité de l’espace globalisé. Aujourd’hui tout le monde peut interférer dans l’espace public d’une démocratie même en étant à l’autre bout du monde. « La place du village qui, autrefois était une compétence des Etats, est déléguée à des entités privées ou étatiques d’autres pays. Ça peut être Mark Zuckerberg aussi bien que Xi Jinping ».

https://www.amazon.fr/35-Masa%C3%A9-Gimbayashi-Barbotte/dp/B07B1XPYJW/ref=sr_1_3?s=music&ie=UTF8&qid=1550344072&sr=1-3&keywords=masae+gimbayashi

C’est pourquoi RSF a créé une commission sur l’information et la démocratie, composée de 25 personnalités de 18 nationalités différentes. Y figurent des lauréats du prix Nobel, des spécialistes des nouvelles technologies, des journalistes, des juristes et des anciens dirigeants d’organisations internationales. Cette commission a édicté une déclaration qui « vise à entrer dans cette nouvelle logique afin de définir les obligations des entités structurantes de l’espace public ». RSF a donc sélectionné douze pays qui vont s’engager à signer un pacte sur l’information et la démocratie sur la base de la déclaration évoquée ci-dessus. Le but est, à terme, de créer une entité qui associera des experts indépendants qui pourra édicter des propositions avec un monopole de l’initiative et qui pourront être mises en œuvre par des Etats.

Elle repose sur des principes forts :

  • Le droit à l’information fiable
  • La liberté de la presse
  • La vie privée
  • La responsabilité des participants du débat public
  • La transparence des pouvoirs

En parallèle, RSF mène un combat en amont dans les process de fabrication de l’info. On parle ici de market regulation et self regulation. L’ONG préconise une standardisation des méthodologies du journalisme conçue par des experts indépendants, base à partir de laquelle ils pourraient construire un outil qui permettrait de mesurer l’intégrité d’une source d’information, une sorte de label. Cela permettrait aux plateformes d’intégrer cet outil dans leurs algorithmes pour pondérer certaines sources d’informations en fonction de ce critère objectif.

Ecosystème audiovisuel français

Irréformable, l’écosystème audiovisuel français ? C’est en tout cas l’opinion d’Olivier Bomsel, directeur de la chaire d’économie des médias de Mines ParisTech, intervenu dans une interview filmée pour le colloque organisé au Sénat cette semaine sur le thème  “Comment reenchanter l’audiovisuel public a l’heure du numerique”

Jugeant l’écosystème audiovisuel français « très affaibli », l’économiste a dressé un portrait de l’industrie sans concession et a plaidé pour un rééquilibrage autour des plateformes OTT.

Le cœur du problème, estime Olivier Bomsel, est que le secteur audiovisuel français s’est bâti dans les années 1980 sur un paradigme qui a complètement changé aujourd’hui :

« Cela remonte à la mise en place des concessions hertziennes, avec le lancement de Canal+, qui acte le principe de concéder à des opérateurs privés des licences d’émettre sur des fréquences hertziennes en échange d’obligations de financement [de la production, NDLR]»

Un système qui organisait un partage de la valeur entre d’un côté les chaînes de télévision à qui on octroyait le droit d’émettre sur une fréquence hertzienne, et de l’autre des producteurs qui faisaient financer leurs programmes par ces chaînes tout en restant propriétaires de leurs droits d’exploitation.

« Le régime était largement fondé sur le fait que le spectre hertzien donnait accès de manière exclusive aux ménages consommateurs de télévision », explique Olivier Bomsel. « Il n’y avait pas d’alternative à la télévision pour entrer dans les foyers avec des images. C’est cette situation, et les modalités dans lesquelles les concessions ont été octroyées aux chaînes de télévision, qui dans la conjoncture actuelle est en crise aiguë. »

Et cette crise, quelles en sont les racines ? Tout simplement la montée de la concurrence de nouveaux canaux de diffusion, et donc la perte du monopole de la télévision dans la consommation audiovisuelle des publics. Aujourd’hui, les chaînes de télévision font face à une irrémédiable perte de valeur de leurs actifs (les concessions de fréquences), tandis qu’en parallèle la valeur des droits des contenus augmente… mais reste entre les mains des producteurs.

C’est là que le bât blesse : impossible, selon Olivier Bomsel, de « rapatrier une partie des droits vers les chaînes de télévision pour compenser la dévaluation des actifs »: les producteurs n’accepteront jamais de revenir sur le statu quo. D’autant que la concurrence des grandes plateformes américaines a entraîné une crispation des acteurs de l’industrie qui cherchent à tout prix à protéger leurs pré-carrés.

La seule solution, pour l’économiste, sera de redéployer un nouveau système autour des plateformes OTT, qui proposera un nouveau partage de la valeur entre producteurs et diffuseurs. Un rééquilibrage compliqué, mais nécessaire, qui pourrait jeter les bases d’une nouvelle ère pour l’audiovisuel français ?