Lero et l’University College Cork mènent une enquête de dix minutes pour comprendre les opinions du public sur l’IA et les logiciels, en se concentrant sur des préoccupations telles que les biais et les implications éthiques. L’étude vise à mettre en évidence le rôle du public dans le développement d’une IA responsable.
Des chercheurs mènent une enquête publique pour sonder les opinions sur l’intelligence artificielle (IA) et les logiciels en général, afin de mieux comprendre les perceptions, les craintes et les espoirs du public quant à l’impact de l’IA sur la société.
L’intelligence artificielle (IA) va-t-elle mettre fin à la civilisation ? Des chercheurs de Lero, du Science Foundation Ireland Research Centre for Software et de l’University College Cork, cherchent à savoir ce que le public pense et sait de l’intelligence artificielle et des logiciels en général.
Sarah Robinson, psychologue et chercheuse postdoctorale senior au Lero, demande aux membres du public de participer à une enquête en ligne anonyme de dix minutes afin de déterminer les espoirs et les craintes des gens à l’égard de l’IA et des logiciels en général.
« Alors que les experts débattent, peu d’attention est accordée à ce que pense le public – et le débat fait rage. Certains experts en IA s’inquiètent du fait que d’autres donnent la priorité à des scénarios apocalyptiques imaginaires plutôt qu’à des préoccupations immédiates, telles que la programmation de préjugés racistes et sexistes dans les machines. Les logiciels ayant un impact sur notre vie à tous, le public est une partie prenante essentielle pour décider de ce que devrait signifier être responsable des logiciels. C’est pourquoi nous voulons savoir ce que pense le public », a ajouté le chercheur de l’UCC.
M. Robinson a déclaré que, par exemple, des violations des droits de l’homme sont commises par le biais de l’IA et des logiciels de reconnaissance faciale.
« Les recherches menées par ma collègue du Lero, le Dr Abeba Birhane, et d’autres ont révélé que les données utilisées pour former certaines IA sont contaminées par des propos racistes et misogynes. À mesure que l’IA se généralise, l’utilisation de données biaisées peut nuire à des groupes déjà marginalisés et les marginaliser davantage.
« Si les médias parlent beaucoup de l’IA, en particulier du ChatGPT, et du monde qu’elle est en train de créer, il y a moins d’informations sur la façon dont le public perçoit le logiciel qui nous entoure, des médias sociaux aux services de diffusion en continu et au-delà. Nous souhaitons comprendre le point de vue du public : quelles sont ses préoccupations, quelles sont ses priorités en termes de responsabilité et d’éthique des logiciels, et quelles sont ses idées pour que cela devienne une réalité », a souligné le Dr Robinson.
Les participants à l’enquête seront invités à donner leur avis et à faire part de leurs préoccupations éventuelles sur une série de questions et de sujets, dans l’espoir de clarifier leurs points de vue sur des questions essentielles. Lero demande aux membres du public de consacrer 10 minutes de leur temps à cette courte enquête.