245. NEUROSCIENCES
L'intelligence artificielle : les chercheurs identifient 6 défis auxquels les humains sont confrontés
Résumé : Une étude identifie six facteurs que les humains doivent surmonter pour s'assurer que l'intelligence artificielle est digne de confiance, sûre, fiable et compatible avec les valeurs humaines.
Source: Université de Floride centrale
Un professeur de l'Université de Floride centrale et 26 autres chercheurs ont publié une étude identifiant les défis que les humains doivent surmonter pour s'assurer que l'intelligence artificielle est fiable, sûre, digne de confiance et compatible avec les valeurs humaines.
L'étude, « Six Human-Centered Artificial Intelligence Grand Challenges », a été publiée dans l' International Journal of Human-Computer Interaction.
Ozlem Garibay '01MS '08PhD, professeur adjoint au Département de génie industriel et de systèmes de gestion de l'UCF , était le chercheur principal de l'étude. Elle dit que la technologie est devenue plus importante dans de nombreux aspects de nos vies, mais elle a également entraîné de nombreux défis qui doivent être étudiés.
Par exemple, l'intégration généralisée à venir de l'intelligence artificielle pourrait avoir un impact significatif sur la vie humaine d'une manière qui n'est pas encore entièrement comprise, explique Garibay, qui travaille sur les applications de l'IA dans la conception et la découverte de matériaux et de médicaments, et sur l'impact de l'IA sur les systèmes sociaux.
Les six défis identifiés par Garibay et l'équipe de chercheurs sont :
· Défi 1, Bien-être humain : l'IA devrait être capable de découvrir les opportunités de mise en œuvre pour qu'elle profite au bien-être des humains. Il convient également de prendre en compte le bien-être de l'utilisateur lors de l'interaction avec l'IA.
· Défi 2, Responsable : L'IA responsable fait référence au concept de priorisation du bien-être humain et sociétal tout au long du cycle de vie de l'IA. Cela garantit que les avantages potentiels de l'IA sont exploités d'une manière qui s'aligne sur les valeurs et les priorités humaines, tout en atténuant le risque de conséquences imprévues ou de manquements éthiques.
· Défi 3, Confidentialité : La collecte, l'utilisation et la diffusion de données dans les systèmes d'IA doivent être soigneusement étudiées pour assurer la protection de la vie privée des individus et empêcher toute utilisation préjudiciable contre des individus ou des groupes.
· Défi 4, Conception : Les principes de conception centrés sur l'humain pour les systèmes d'IA doivent utiliser un cadre qui peut informer les praticiens. Ce cadre ferait la distinction entre l'IA à risque extrêmement faible, l'IA sans mesures spéciales nécessaires, l'IA à risque extrêmement élevé et l'IA qui ne devrait pas être autorisée.
· Défi 5, Gouvernance et supervision : Un cadre de gouvernance qui prend en compte l'ensemble du cycle de vie de l'IA, de la conception au développement et au déploiement, est nécessaire.
· Défi 6, Interaction homme-IA : Pour favoriser une relation éthique et équitable entre les humains et les systèmes d'IA, il est impératif que les interactions soient fondées sur le principe fondamental du respect des capacités cognitives des humains. Plus précisément, les humains doivent conserver un contrôle et une responsabilité complets sur le comportement et les résultats des systèmes d'IA.
L'étude, qui a été menée sur 20 mois, comprend les points de vue de 26 experts internationaux qui ont des expériences diverses dans la technologie de l'IA.
"Ces défis appellent à la création de technologies d'intelligence artificielle centrées sur l'humain qui donnent la priorité à l'éthique, à l'équité et à l'amélioration du bien-être humain", déclare Garibay.
L'étude, qui a été menée sur 20 mois, comprend les points de vue de 26 experts internationaux qui ont des expériences diverses dans la technologie de l'IA. L'image est dans le domaine public
"Les défis exigent l'adoption d'une approche centrée sur l'humain qui comprend une conception responsable, la protection de la vie privée, le respect des principes de conception centrée sur l'humain, une gouvernance et une surveillance appropriées et une interaction respectueuse avec les capacités cognitives humaines."
Dans l'ensemble, ces défis sont un appel à l'action pour que la communauté scientifique développe et mette en œuvre des technologies d'intelligence artificielle qui priorisent et profitent à l'humanité, dit-elle.
Le groupe de 26 experts comprend des membres de la National Academy of Engineering et des chercheurs d'Amérique du Nord, d'Europe et d'Asie qui ont une vaste expérience dans le milieu universitaire, l'industrie et le gouvernement. Le groupe a également des formations diverses dans des domaines allant de l'informatique et de l'ingénierie à la psychologie et à la médecine.
Leurs travaux seront également présentés dans un chapitre du livre Human-Computer Interaction: Foundations, Methods, Technologies, and Applications.
Cinq membres du corps professoral de l'UCF ont co-écrit l'étude :
- Gavriel Salvendy, professeur universitaire distingué au Collège d'ingénierie et d'informatique de l'UCF et président fondateur de l'Académie des sciences, de l'ingénierie et de la médecine de Floride.
- Waldemar Karwowski, professeur et directeur du Département de génie industriel et des systèmes de gestion et directeur exécutif de l' Institute for Advanced Systems Engineering de l'Université de Floride centrale .
- Steve Fiore, directeur du Laboratoire de sciences cognitives et professeur du programme de sciences cognitives de l'UCF au Département de philosophie et à l'Institut de simulation et de formation.
· Ivan Garibay, professeur agrégé en ingénierie industrielle et systèmes de gestion et directeur de l' UCF Artificial Intelligence and Big Data Initiative .
- Joe Kider, professeur associé à l' IST, School of Modeling, Simulation and Training et co-directeur du SENSEable Design Laboratory .
Garibay a obtenu son doctorat en informatique de l'UCF et a rejoint le Département de génie industriel et de systèmes de gestion de l'UCF, qui fait partie du Collège d'ingénierie et d'informatique, en 2020.
À propos de cette actualité sur la recherche en intelligence artificielle
Auteur : Robert Wells
Source : Université de Floride centrale
Contact : Robert Wells – Université de Floride centrale
Image : L'image est dans le domaine public
Recherche originale : libre accès.
« Six grands défis de l'intelligence artificielle centrés sur l'humain » par Ozlem Garibay et al. Journal international de l'interaction homme-machine
Abstrait
Six grands défis d'intelligence artificielle centrés sur l'humain
L'adoption généralisée des technologies d'intelligence artificielle (IA) affecte considérablement la condition humaine d'une manière qui n'est pas encore bien comprise.
Les conséquences négatives involontaires abondent, notamment la perpétuation et l'exacerbation des inégalités et des divisions sociétales via la prise de décision algorithmique.
Nous présentons six grands défis à la communauté scientifique pour créer des technologies d'IA centrées sur l'humain, c'est-à-dire éthiques, équitables et améliorant la condition humaine.
Ces grands défis sont le résultat d'une collaboration internationale entre les universités, l'industrie et le gouvernement et représentent les points de vue consensuels d'un groupe de 26 experts dans le domaine de l'intelligence artificielle centrée sur l'humain (HCAI).
Essentiellement, ces défis plaident en faveur d'une approche de l'IA centrée sur l'humain qui (1) est centrée sur le bien-être humain, (2) est conçue de manière responsable, (3) respecte la vie privée, (4) suit les principes de conception centrés sur l'humain, ( 5) fait l'objet d'une gouvernance et d'une surveillance appropriées, et (6) interagit avec les individus tout en respectant les capacités cognitives humaines.
Nous espérons que ces défis et leurs orientations de recherche associées serviront d'appel à l'action pour mener une recherche et un développement en IA qui serviront de multiplicateur de force vers des sociétés plus justes, équitables et durables.
Bas du formulaire
Mai 2023