L’Intelligence artificielle (IA) fait partie du décor des médias dont l’audiovisuel. A usage multiple, elle ne peut pas ne pas retenir notre attention. L’ASBU en a fait l’objet d’un débat qui vaut le détour de son 3ème Congrès. Une Intelligence artificielle qui, si elle assure des avancées certaines, constitue, par ailleurs, des risques. Dont ceux du «désordre» au niveau des contenus diffusés.
L’Intelligence artificielle est-elle synonyme de pertes d’emplois ? La question a trotté dans la tête de plus d’un au cours du 3ème Congrès de l’information arabe, organisé les 17 et 18 janvier 2024 à Tunis par l’Union des radiodiffuseurs arabes (ASBU). Elle ne pouvait pas ne pas être du reste évoquée. Faux, estime l’Egyptien Mohamed Abdulzaher, directeur exécutif d’une structure de recherche et de veille spécialisée dans l’Intelligence artificielle (AIJRF).
L’Intelligence artificielle a créé nombre d’emplois à la faveur du développement de pas moins de douze secteurs liés à cette spécialité. Le nombre d’applications liées à l’Intelligence artificielle a explosé entre 2018 et 2022, passant de 16 000 à 180 000. Des applications qui ont besoin de bras et de matière grise.
Le volume des investissements en matière d’Intelligence artificielle a explosé : il est de 200 millions de dollars (un peu plus que trois fois plus en dinars tunisiens) en 2022 dans le monde.
Comme il est faux de penser que l’Intelligence Artificielle est un phénomène nouveau : elle date des années cinquante du siècle dernier, assure Abdesamad Motei, Pr à l’ISJC de Rabat, au Maroc.
L’Intelligence artificielle c’est, en outre, trois mille milliards de dollars. Evidemment, il y a des pertes d’emplois certaines, mais combien d’autres emplois sont créés. Souvent à très fortes valeurs ajoutées.
Comme il est faux de penser que l’IA est un phénomène nouveau : elle date des années cinquante du siècle dernier, assure Abdesamad Motei, professeur à l’Institut supérieur de journalisme et de communication (ISJC) de Rabat, au Maroc. Il s’agit, pour lui, rien de moins, rien de plus, qu’une évolution ou innovation comme toutes autres de l’aventure humaine. Comme l’a été, sans doute, l’informatique.
Passons les «plagiats»
Plus dangereuse que la perte d’emplois, la question des «désordres» que l’IA n’est pas à négliger. Celle-ci est souvent porteuse de «fausses informations». Et pour cause : lorsqu’on interroge l’application ChatGpt, par exemple sur une thématique, il n’est pas étonnant que cette dernière nous apporte dans son exposé des informations erronées. Mais aussi des informations pas toujours d’actualité. Toutes les applications ne sont pas de ce fait bien documentées.
Passons les «plagiats» qui collent toujours à la peau des applications de l’IA. «Cela a provoqué une “révolution“ dans le domaine scientifique», sourit un universitaire égyptien, entre la poire et le fromage, dans un des repas organisé au cours du 3ème Congrès de l’information arabe de l’ASBU. «Je ne demande plus d’exposés aux étudiants», conclut-il, «ils viennent de plus en plus de ChatGpt». Une application de ChatGpt qui n’est pas la seule à nous offrir des contenus.
D’où l’importance que requiert aujourd’hui la question des droits d’auteurs «bafoués» par les applications de l’Intelligence artificielle. Aussi rien d’étonnant que la question soit au centre de l’intérêt de certaines organisations comme l’Union européenne (UE) qui pense à assurer «une bonne gouvernance» de l’Intelligence artificielle afin qu’elle respecte des règles comme la propriété intellectuelle et la transparence.
C’est du reste le sens de l’exposé présenté par Simona Martorelli, responsable des relations internationales de la télévision publique italienne, la RAI, qui a parlé de la mise en place prochaine (avant l’été 2024) d’une loi européenne en matière d’Intelligence artificielle.
Le premier des risques
Autre initiative dans ce domaine, celle de Reporters Sans Frontières (RSF), l’Association de défense des droits des journalistes, qui a mis en exergue les 10 principes mis en place par la Charte de Paris sur l’Intelligence artificielle qui évoque notamment le fait que «le jugement humain doit rester central dans les décisions éditoriales». Au travers d’une communication de Vincent Berthier, chef du bureau de la technologie de RSF. Comme quoi l’homme doit avoir le dessus sur la machine, qui produit l’Intelligence artificielle ; une machine capable du meilleur comme du pire !
Très suivie, l’intervention de Sadok Hammami, professeur à l’IPSI, a permis de faire un voyage au sein du paysage mondial de la régulation de l’Intelligence Artificielle. Avec un riche exposé sur les risques que cette Intelligence Artificielle occasionne comme la « désinformation »
Très suivie, l’intervention de Sadok Hammami, professeur à l’Institut de Presse et des Sciences de l’Information (IPSI) de Tunis (notre photo), a permis de faire un voyage au sein du paysage mondial de la régulation de l’Intelligence artificielle. Avec un riche exposé sur les risques que cette IA occasionne comme la «désinformation». Et l’auteur de revenir sur le récent rapport (2024) de Davos qui place la «désinformation», née de l’IA, comme le premier des risques qu’encourent l’humanité pour les années à venir. Et l’universitaire de dire que l’année 2023 aura été celle de la régulation en matière d’Intelligence artificielle.
Le G7, l’Union européenne, les Etats-Unis d’Amérique,… beaucoup de parties légifèrent ou préparent des législations.