Les chefs de rédaction se préparent au chaos. Dans les plus grandes maisons d’édition au monde, y compris les prestigieux New York Times, Wall Street Journal et le Washington Post, on envisage des garde-fous. Et ce, pour protéger leur contenu contre l’agrégation et la désinformation basées sur l’intelligence artificielle (IA).
Les débats sont lancés au sein des entreprises de médias, des grandes plateformes technologiques et de l’association professionnelle du contenu numérique (Digital Content Next). Objectif : élaborer des règles sur la manière dont leur contenu peut être utilisé par les outils de l’IA.
Un coup de grâce à toute une industrie
En effet, l’IA générative est capable de créer des blocs de texte ou d’images, apparemment nouveaux, en réponse à des requêtes complexes. Certains de ces programmes se forment à partir de grandes quantités d’informations accessibles au public sur l’internet; notamment des articles et des œuvres d’art protégés par des droits d’auteur.
Les éditeurs craignent donc que ces programmes ne compromettent leur modèle économique en publiant du contenu réutilisé sans mention de source. Ou même en créant du contenu inexact ou trompeur. Ce qui diminuerait la confiance dans l’information en ligne.
Sept principes pour la gouvernance de l’IA
A cet égard, sept principes pour le développement et la gouvernance de l’IA générative ont été révélés la semaine dernière. Ils touchent aux aspects relevant de la sécurité, de la rémunération de la propriété intellectuelle, de la transparence, de la responsabilité et de l’équité.
Ainsi, ces principes visent l’ouverture de la voie à de futures discussions. Ils précisent surtout que les éditeurs ont le droit de négocier et de recevoir une compensation équitable en contrepartie de l’utilisation de leur propriété intellectuelle. Les usagers des systèmes d’IA générative devraient être tenus responsables des résultats du système. Il y a une conscience de l’urgence de la mise en place de normes pour cette nouvelle tendance. D’ailleurs, quinze réunions ont été tenues depuis février 2023 et tous les types de médias se penchent sur la question.
Rémunérer ou passer par les tribunaux
L’IA générative présente, à la fois, un potentiel d’efficacité et des menaces pour le secteur de l’information. Car, la technologie peut créer de nouveaux contenus, tels que des jeux, des propositions de voyages ou des recettes de cuisines. Lesquels offrent des avantages aux consommateurs et contribuent à réduire les coûts.
Mais le secteur des médias se préoccupe aussi de l’effondrement de son modèle économique tout au long de ces dernières années. Les réseaux sociaux et les moteurs de recherche, principalement Facebook et Google, ont récolté les fruits de la publicité numérique. Alors, la volonté de faire plier les entreprises de Big Tech est bien présente, pour qu’elles paient pour tout contenu qu’elles utilisent pour former des modèles d’intelligence artificielle.
Au-delà des questions de bilan, la préoccupation la plus importante en matière d’IA pour les organismes de presse est d’alerter les utilisateurs sur ce qui est réel et ce qui ne l’est pas. La lutte contre la désinformation est une question purement technologique. C’est un défi d’une telle ampleur qu’il doit être relevé dans le cadre d’un partenariat.