Version française / please read in English below
Même si ce n'est qu'en marge, je suis actuellement impliqué d'une manière ou d'une autre dans la mise en œuvre d'un nouveau programme de licence en communication et création de contenu.
L'élaboration de tels programmes, leur pédagogie et leur approche, ainsi que les recherches de fond nécessaires, m'ont toujours été chères. C'est une formidable occasion de prendre le pouls du monde contemporain, de la réalité et des défis à venir.
En travaillant sur ce sujet de la création de contenu, je suis tombée sur quelques articles intéressants explorant les récents changements dans l'IA et avec l'IA, concernant l'information et sa diffusion... Ca m’a fait penser !
Nous en avons tous profité, n'est-ce pas ? Les dernières avancées en matière d'IA ont considérablement amélioré nos capacités (ou plutôt celles des machines) en matière de génération de contenu et d'analyse des sentiments. Avez-vous déjà essayé de faire rédiger vos posts LinkedIn par ChatGPT ou demandé à Teams d'analyser les sentiments sous-jacents d'un client, quand il vous écrit un e-mail ? Je l'ai fait et c'est formidable, mais cela a un prix que je ne connaissais pas entièrement !
L'intelligence artificielle a certainement réduit les coûts de la communication ou de la création de contenu et, avec la même lame, elle a également réduit les obstacles à l'entrée dans cette boîte de Pandore. L'apprentissage automatique (Machine Learning, ML) rend la surveillance des réseaux sociaux, l'analyse des textes et des sentiments beaucoup plus puissante. Il nous aide à prédire à peu près tout : les questions sociales, la viralité des nouvelles et les groupes de lecteurs ou de clients les plus vulnérables à la désinformation, c'est-à-dire aux fausses informations et non aux "fake news". Les grands modèles de langage (Large Language Models, LLM) comme ChatGTP peuvent déjà créer des textes, des photos, des sons et des vidéos qu'il est de plus en plus difficile de distinguer d'un contenu organique, "réel" ou “humain”.
L'IA fait des postes de post-vérité
En réfléchissant à l'écriture du bachelor en communication et création de contenu mentionnée plus haut, cette nouvelle réalité soulève en quelque sorte beaucoup de questions sincères dans ma tête !
Essayons-nous de créer quelque chose qui est déjà à moitié obsolète ? Sommes-nous en train de participer à l'élaboration, à la diffusion et à l'amplification de la désinformation ? D'une éventuelle propagande ?
Punaise !
Comme je l'ai lu dans un article paru à la fin de l'année dernière, une des possibles explications, plutôt dystopiques pourrait ressembler à ceci :
La diffusion des campagnes dans les réseaux sociaux repose le plus souvent sur un grand nombre de comptes dans les médias sociaux. Pour faire la différence, l'authenticité perçue de tous ces comptes est essentielle. Cela semble logique !
Avec l'augmentation de la disponibilité des LLM (les grands modèles de langage) et la baisse drastique de leurs coûts, il sera de plus en plus facile de créer des contenus plus personnalisés et plus efficaces. Jusqu'ici, tout va bien !
La création de contenu devenant à son tour plus automatisée, cela réduira les coûts financiers et le temps associés au micro-ciblage et à l'hyper-personnalisation. Quelqu'un se souvient-il du scandal de Cambridge Analytica ?
Une meilleure compréhension de l'environnement de l'information signifie également que les acteurs nuisibles peuvent élaborer des récits plus convaincants et plus efficaces, plus facilement. C'est là que je commence à ne plus aimer l'histoire !
Les techniques d'apprentissage automatique (ML) permettent facilement de générer des photos de profil de plus en plus réalistes. Par conséquent, il est aujourd'hui possible de créer ou de générer en masse des comptes crédibles à l'aide de l'IA pour diffuser délibérément de la "désinformation".
Certains de nos étudiants l'ont appris à leurs dépens, lorsqu'ils ont découvert que l'IA avait collé leurs visages “selfies” parfaitement mis en scène sur des contenus pornographiques, et que les machines les avaient postés sur de "vrais-mais-faux" comptes de médias sociaux...
Ce qui m'a vraiment époustouflé, c'est le fait que les progrès de l'IA conversationnelle ou des chatbots permettent désormais d'automatiser et de hyper-personaliser l'engagement avec des personnes ciblées. Avez-vous déjà vu l'historique des échanges de chat sur le téléphone d'un adolescent ?
Les chatbots utilisent de grands volumes de données, l'apprentissage automatique et le traitement du langage naturel pour imiter les interactions humaines. Ils reconnaissent les entrées vocales, ainsi que textuelles et génèrent une réponse. Ils pourraient être utilisés pour prendre part à des discussions en ligne, répondre à des commentaires afin de stimuler la controverse et d'accroître la polarisation.
Éducation aux médias et cuisiner
Nous savons que nous vivons dans un monde incertain. Comme je l'ai écrit dans une précédente newsletter, seule “VUCA” est certaine. Le monde de demain, celui de la vie professionnelle active de nos étudiants, est un monde où la désinformation sera plus répandue, plus personnalisée et plus difficile à discerner que jamais. Dans ce contexte, nous devons actualiser nos programmes traditionnels d'éducation aux médias. C’est urgent !
L'enseignement supérieur est un élément essentiel de cette stratégie efficace d'éducation aux médias et devrait être mis à profit pour fournir aux jeunes les outils dont ils ont besoin pour naviguer dans cet environnement d'information dangereux qui évolue rapidement.
J'ai certainement appris une chose : l'avenir de la communication ne passe pas par des "écoles de communication" ou des diplômes de licence en communication et en création de contenu. Si nous voulons réellement et intimement préparer nos jeunes à l'ère de l'information post-vérité, nous devons inclure des modules d'éducation aux médias partout où cela est possible, même dans les cours de cuisine...
English version / Lisez la version française ci-dessus
Even if only on the sidelines, I am currently somehow involved in the implementation of a new bachelors programme in communication and content creation.
The development of such programmes, their pedagogy and delivery approach, as well as the needed background research, have always been dear to me. An amazing opportunity to feel the pulse of the contemporary world, reality and of the challenges ahead.
Working for this content creation subject, I have stumbled across a few interesting articles exploring the recent changes in AI and with AI, concerning information and its spread… scary stuff!
We have all profited from it, haven’t we? The latest advances in AI have greatly improved our (the machine’s) capabilities across content generation and sentiment analysis. Have you ever tried to get your LinkedIn posts written by ChatGPT or asked Teams to analyse the underpinning sentiments of a client, while writing you an email? I have and it is great, but coming with a price tag, I was not aware of!
Artificial Intelligence has surely cut the costs of communication or content creation and with the same blade it has also reduced barriers to enter that Pandora’s box . Machine learning is making social media monitoring, text and sentiment analysis much more powerful. It helps us predict pretty much everything: social issues, virality of news , and which groups of readers or clients may be most vulnerable to misinformation, meaning false information, not fake news. Large language models (LLMs) like ChatGTP can already create text, photos, audio, and videos that are more and more difficult to distinguish from organic, « real » content.
AI posts Post-truth
Reflecting on the before mentioned writing of the bachelors in communication and content creation, this new reality somehow raises a lot of heartfelt and sincere questions in my head!
Are we trying to create something that is already half-obsolete? Are we being part of the elaboration of dissemination and amplification of mis- or disinformation? of possible propaganda?
Holy shit!
As I have read in an article of late last year, a rather dystopian answer and explanation could look like this :
The spreading of social media campaigns relies most often on large numbers of accounts across social media. To make a difference, the perceived authenticity of all these accounts is key. Seems logical!
As the availability of LLMs increases and their costs drastically fall, it will be more and more easy to create more personalised and effective content. So far so good!
As content creation in turn becomes more automated, this reduces the financial and time costs associated with micro-targeting and hyper-personalization. Anybody remembering Cambridge Analytica?
An improved understanding of the information environment means also that harmful actors can craft more compelling and effective narratives, more easily. This is where i start to dislike the story!
Machine Learning techniques easily allow the generation of increasingly realistic profile photos. As a result, it is possible today to create or generate credible accounts en masse with AI to spread “disinformation” deliberately.
A fact some of our students have learned the hard way, when they found that AI had glued their amazingly staged selfie-faces on pornographic content, and that machines posted it on “real-but-fake” social media accounts…
What really blew my mind was the fact that advancements in conversational AI or chatbots now allow engagement with targeted individuals to be automated. Have you ever seen the chat exchange history on a teenagers phone?
Chatbots use large volumes of data, Machine Learning and Natural Language Processing to imitate human interactions. They recognize speech and text input and generate a response. This could be used to take part in online discussions, respond to comments to stimulate controversy and disputes and increase polarisation.
Media literacy and cooking
We know to live in a world of uncertainty. As i wrote in a previous newsletter, VUCA is the only thing certain. The future world, the one of our students’ active professional life, is one where disinformation will be more prevalent, more personalised and harder to discern than ever. In light of this, we need to update our traditional media literacy programmes.
Higher education is a critical component of this effective media literacy strategy, and should be leveraged to provide young people with the tools they need to navigate this rapidly changing and dangerous information environment.
I have certainly learned one thing: the future of communication is not about “communication schools” or bachelor degrees in communication and content creation. If we really and intimately want to prepare our youth for the post-truth information era, we need to include hard-core media literacy modules everywhere possible, even in cooking classes…