Nous joindre
X
Rechercher
Publicité

Propagande

Le contenu haineux généré par l'IA est en augmentation, disent des experts

durée 12h00
27 mai 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Le contenu haineux généré par l'intelligence artificielle (IA) est de plus en plus présent, selon des experts.

«Je pense que tous ceux qui font des recherches sur les contenus haineux ou les médias haineux voient de plus en plus de contenus générés par l'IA», a affirmé Peter Smith, journaliste qui travaille pour le Réseau canadien anti-haine.

Chris Tenove, directeur adjoint du Centre d'étude des institutions démocratiques de l'Université de la Colombie-Britannique, a déclaré que les groupes haineux, comme les groupes suprémacistes blancs, «ont été historiquement les premiers à adopter les nouvelles technologies et techniques d'Internet».

M. Tenove s'est dit «profondément préoccupé» par la possibilité que des contenus antisémites, islamophobes, racistes et xénophobes «soient suralimentés par l'IA générative».

Parfois, ce contenu peut se répercuter sur la vie réelle.

Après que l'IA a été utilisée pour générer ce que M. Smith a décrit comme des «affiches de films dans le style de Pixar, mais extrêmement racistes», certaines personnes les ont imprimées et les ont affichées sur le côté des salles de cinéma, a-t-il dit.

«Tout ce qui est accessible au public, qui est populaire ou émergent, notamment en matière de technologie, est très vite adapté pour produire de la propagande haineuse.»

Les systèmes d’IA générative peuvent créer des images et des vidéos presque instantanément. Au lieu qu'un individu consacre des heures à créer une seule image, il peut en créer des dizaines «dans le même laps de temps, en quelques touches de clavier seulement», a déclaré Peter Smith.

L'organisation juive B'nai Brith Canada a examiné la question du contenu haineux généré par l'IA dans un récent rapport sur l'antisémitisme.

Le rapport indique qu'il y a eu une «augmentation sans précédent des images et vidéos antisémites créées ou falsifiées à l’aide de l’IA» l'année dernière.

Le directeur de la recherche et du plaidoyer, Richard Robertson, a déclaré que le groupe avait observé que «des images vraiment horribles et graphiques, généralement liées au négationnisme, à la diminution ou à la distorsion de la Shoah, étaient produites à l'aide de l'IA».

Il a donné l’exemple d’une image falsifiée représentant un camp de concentration avec un parc d’attractions à l’intérieur.

«Les victimes de la Shoah montent à bord des manèges, semblant s'amuser dans un camp de concentration nazi, et c'est vraisemblablement quelque chose qui ne peut être produit qu'en utilisant l'IA», a-t-il affirmé.

Le rapport de l'organisation indique également que l'IA a «eu un impact considérable» sur la propagande à la suite de la guerre entre Israël et le Hamas.

L’IA peut être utilisée pour créer des hypertrucages («deepfakes») ou des vidéos présentant des simulations remarquablement réalistes de célébrités, d’hommes politiques ou d’autres personnalités publiques.

L'hypertrucage, dans le contexte de la guerre entre Israël et le Hamas, a provoqué la diffusion de fausses informations sur les événements et a attribué de fausses déclarations à la fois à l'armée israélienne et aux responsables du Hamas, indique M. Tenove.

«Il y a donc eu ce genre de choses, qui consistent à essayer d'attiser la colère ou la peur des gens à l'égard de l'autre camp et à utiliser la tromperie pour y parvenir.»

Jimmy Lin, professeur à l'école d'informatique de l'Université de Waterloo, reconnaît qu'il y a eu «une légère hausse en matière de faux contenus (...) spécialement conçus pour agacer les gens des deux côtés».

Amira Elghawaby, représentante spéciale du Canada chargée de la lutte contre l’islamophobie, affirme qu’il y a eu une augmentation des récits antisémites et islamophobes depuis le début du conflit.

Elle dit que la question de l’IA et des contenus haineux mérite à la fois davantage d’études et de discussions.

L'ampleur du problème encore à déterminer

Il ne fait aucun doute que le contenu haineux généré par l’IA est un problème émergent, mais les experts ne sont pas encore parvenus à un consensus sur l’ampleur du problème.

Chris Tenove a déclaré qu'il y avait «beaucoup de suppositions en ce moment», semblables à des questions sociétales plus larges sur «les contenus nuisibles ou problématiques qui se propagent sur les plateformes de médias sociaux».

Des systèmes comme ChatGPT intègrent des protections, a déclaré Jimmy Lin. Un porte-parole d'OpenAI a confirmé qu'avant de lancer un nouveau système, l'entreprise apprend au modèle à refuser de générer des discours de haine.

Mais M. Lin a affirmé qu'il existe des moyens de contourner les systèmes d'IA, notant que certaines commandes peuvent «tromper le modèle» pour qu'il produise ce qu'il a décrit comme un contenu désagréable.

David Evan Harris, chercheur à l'Université de Californie à Berkeley, a déclaré qu'il était difficile de savoir d'où vient le contenu de l'IA à moins que les entreprises à l'origine de ces modèles ne veillent à ce qu'il soit identifié.

Certains modèles d'IA, comme ceux créés par OpenAI ou Google, sont des modèles à source fermée. D'autres, comme Llama, de Meta, sont plus ouverts, a indiqué M. Harris.

Une fois qu’un système est ouvert à tous, les personnes avec de mauvaises intentions peuvent supprimer les dispositifs de sécurité et faire produire à l'IA des discours de haine, des escroqueries et des messages d’hameçonnage d’une manière très difficile à détecter.

Une déclaration de Meta indique que la société intègre des mesures de protection dans ses systèmes et ne met pas «tout» en source ouverte.

«Les logiciels en source ouverte sont généralement plus sûrs et sécurisés grâce aux commentaires, à l'inspection, au développement et aux mesures d'atténuation continus qui viennent de la communauté», indique-t-il.

Le projet de loi C-63, qui vise à lutter contre les méfaits en ligne, améliorera la situation selon les libéraux fédéraux.

Chantalle Aubertin, porte-parole du ministre de la Justice Arif Virani, a déclaré que le contenu défini comme haineux dans le projet de loi inclut «tout type de contenu, comme les images et les vidéos, et tout contenu généré artificiellement, comme les hypertrucages».

Innovation Canada a dit que sa proposition de loi sur la réglementation de l'intelligence artificielle, le projet de loi C-27, exigerait que le contenu de l'IA soit identifiable.

Un porte-parole a déclaré que le projet de loi «exigerait également que les entreprises responsables de systèmes d'IA à fort impact et à usage général évaluent les risques, testent et surveillent leurs systèmes pour s'assurer qu'ils fonctionnent comme prévu, et mettent en place des mesures d'atténuation appropriées pour faire face à tous les risques».

Anja Karadeglija, La Presse Canadienne

commentairesCommentaires

0

Pour partager votre opinion vous devez être connecté.

RECOMMANDÉS POUR VOUS


durée Hier 14h08

Trop de médicaments? Voici comment en parler à votre médecin

Avaler une poignée de pilules est un rituel quotidien pour de nombreuses personnes, qu'il s'agisse de jeunes adultes luttant contre l'anxiété ou de personnes âgées gérant des maladies chroniques. Dans l'ensemble, 13 % des Américains prennent au moins cinq médicaments sur ordonnance. Chez les personnes âgées de 65 ans et plus, ce chiffre s'élève à ...

19 juillet 2024

Les vacances des travailleurs de la construction existent depuis l'été 1971

C'est l'une des nombreuses particularités québécoises: pendant la canicule de l'été, lorsque tout le monde souhaite être en vacances, pratiquement toute l'industrie de la construction et une bonne partie du reste du Québec ferment leurs portes pendant deux semaines. Dimanche, le congé annuel de la construction s'amorcera officiellement. Il s'agit ...

19 juillet 2024

Des experts soulignent l'urgence de rassurer le public face au lait contaminé

Des experts en marketing affirment que deux entreprises qui ont récemment dû rappeler du lait à base de plantes contaminé par la Listeria peuvent se remettre de l'éclosion mortelle, mais qu'elles doivent agir rapidement pour regagner la confiance des consommateurs. Ils soutiennent que Danone et Walmart devraient s'excuser rapidement pour les ...