« Une intelligence artificielle de confiance doit être socialement acceptable »

Malik Ghallab est un chercheur du CNRS spécialiste de l’intelligence artificielle. Il revient sur les enjeux sociétaux qui gravitent autour de l’IA qui, plus qu’une simple technologie, est un véritable domaine scientifique à part entière.

Tristan Dereuddre  • 6 mars 2024 abonné·es
« Une intelligence artificielle de confiance doit être socialement acceptable »
"Si les individus se sentent superflus vis-à-vis des machines et des outils d’IA, on touche à la cohésion sociale et on risque d’aller au-devant d’énormes risques sociaux."
© Cash Macanaya / Unsplash.

L’imaginaire qui gravite autour de l’intelligence artificielle nourrit une multitude de fantasmes. En 2023, l’arrivée de ChatGPT dans les usages quotidiens a montré aux sociétés la puissance de l’IA générative et les potentielles mutations qu’elle pourrait entraîner : certaines professions seront-elles remplacées ? Les usages de l’IA générative sont-ils illimités ? Comment encadrer le développement de cet outil ? Malik Ghallab, ancien directeur du

Envie de terminer cet article ? Nous vous l’offrons !

Il vous suffit de vous inscrire à notre newsletter hebdomadaire :

Vous préférez nous soutenir directement ?
Déjà abonné ?
(mot de passe oublié ?)