Comment les modèles d’IA générative tels que ChatGPT, DALL-E et Midjourney peuvent fausser les croyances humaines

Qu\'avez vous pensé de cet article ?

Selon Celeste Kidd et Abeba Birhane, les modèles d’IA générative tels que ChatGPT, DALL-E et Midjourney peuvent déformer les croyances humaines en transmettant de fausses informations et des préjugés stéréotypés. La conception de l’IA générative actuelle, axée sur la recherche et la fourniture d’informations, pourrait rendre difficile la modification des perceptions des gens lorsqu’ils sont exposés à de fausses informations.

Les chercheurs mettent en garde contre le fait que les modèles d’IA générative, notamment ChatGPT, DALL-E et Midjourney, pourraient déformer les croyances humaines en diffusant des informations fausses et biaisées.

Impact de l’IA sur la perception humaine

Selon les chercheurs Celeste Kidd et Abeba Birhane, les modèles d’IA générative tels que ChatGPT, DALL-E et Midjourney peuvent déformer les croyances humaines en transmettant de fausses informations et des préjugés stéréotypés. Dans leur perspective, ils expliquent comment les études sur la psychologie humaine pourraient éclairer les raisons pour lesquelles l’IA générative possède un tel pouvoir de distorsion des croyances humaines.

Surestimation des capacités de l’IA

Ils affirment que la perception qu’a la société des capacités des modèles d’IA générative a été exagérée, ce qui a conduit à une croyance répandue selon laquelle ces modèles surpassent les capacités humaines. Les individus sont intrinsèquement enclins à adopter plus rapidement et avec plus d’assurance les informations diffusées par des entités bien informées et sûres d’elles, telles que l’IA générative.

Le rôle de l’IA dans la diffusion d’informations fausses et biaisées

Ces modèles génératifs d’IA ont la capacité de fabriquer des informations fausses et biaisées qui peuvent être diffusées à grande échelle et de manière répétitive, facteurs qui déterminent en fin de compte la mesure dans laquelle ces informations peuvent être ancrées dans les croyances des gens. Les individus sont plus susceptibles d’être influencés lorsqu’ils sont à la recherche d’informations et ont tendance à adhérer fermement à l’information une fois qu’ils l’ont reçue.

Implications pour la recherche et la fourniture d’informations

La conception actuelle de l’IA générative s’adresse en grande partie à la recherche et à la fourniture d’informations. En tant que tel, il peut être très difficile de faire changer d’avis les personnes exposées à des informations fausses ou biaisées par l’intermédiaire de ces systèmes d’IA, comme le suggèrent Kidd et Birhane.

Nécessité d’études interdisciplinaires

Les chercheurs concluent en soulignant la nécessité de mener des études interdisciplinaires pour évaluer ces modèles. Ils suggèrent de mesurer l’impact de ces modèles sur les croyances et les préjugés humains avant et après l’exposition à l’IA générative. Il s’agit d’une opportunité opportune, surtout si l’on considère que ces systèmes sont de plus en plus adoptés et intégrés dans diverses technologies quotidiennes.

Référence : « Comment l’IA peut déformer les croyances humaines : Models can convey biases and false information to users » par Celeste Kidd et Abeba Birhane, 22 juin 2023, Science.
DOI : 10.1126/science.adi0248