La tenue, actuellement, à la Cinémathèque française, d’une rétrospective consacrée au cinéaste visionnaire James Cameron , fasciné par l’intelligence artificielle, nous donne l’occasion de nous interroger sur la manière dont les entreprises doivent aborder cette technologie. En particulier, quelle est la place de la responsabilité humaine dans l’équation ?

La révolution numérique façonne nos sociétés et si l’émergence de l’intelligence artificielle est une étape d’un continuum, il est cependant impossible de nier qu’elle constitue un tournant décisif. Cette technologie est intrinsèquement porteuse de risques, sur le plan éthique, pour nos concitoyens. Ainsi, la réguler est indispensable, d’autant plus avec le développement exponentiel de l’IA générative.

Un potentiel indéniable
L’Europe a su, la première, se saisir du sujet avec l’AI Act , législation inédite au niveau mondial. Devant être publiée mi-juillet, elle encadre l’utilisation de l’intelligence artificielle, et plus précisément ses cas d’usage, à partir d’une classification définissant quatre niveaux de risque , sans pour autant entraver son développement, préservant ainsi l’innovation et la compétitivité des entreprises européennes.
La rétrospective que j’évoquais en préambule nous montre que l’usage que nous faisons de la technologie relève de la seule responsabilité humaine. Il y a bien plus longtemps, Rabelais, déjà, écrivait que « science sans conscience n’est que ruine de l’âme ».
Je suis convaincu que l’intelligence artificielle est un facteur de rupture et que son potentiel est considérable, par exemple dans le secteur de l’assurance . Elle peut notamment faciliter l’automatisation de certaines tâches à faible valeur ajoutée et permettre aux équipes d’être toujours plus efficaces dans leurs missions de protection et d’accompagnement des assurés.

Et l’humain ?
Cependant, une question demeure essentielle : quelle place donner à l’humain , dans le développement des différents systèmes, d’une part, et dans leur déploiement, d’autre part ?
Si le cadre européen interdit les systèmes d’intelligence artificielle qui présentent des risques inacceptables, il donne une place à l’humain pour encadrer ceux à haut risque en prévoyant, parmi les exigences, la mise en place d’une « garantie humaine » (human oversight). Elle consiste à appliquer une supervision humaine sur des points identifiés comme critiques dans la phase de conception mais aussi d’utilisation des systèmes.

L’IA dans le secteur assurantiel
Dans le secteur de l’assurance, la majorité des usages de l’intelligence artificielle ne sont pas classés à haut risque. En tant que groupe mutualiste, nous sommes convaincus de son potentiel mais aussi de la dimension éthique du sujet. Ainsi, ma conviction est que nous devons, quoi qu’il en soit, nous saisir du concept de garantie humaine pour porter une approche humaniste du sujet.
En effet, la notion de garantie humaine engage l’entreprise dans son utilisation de l’intelligence artificielle . L’entreprise sera redevable, notamment auprès des autorités de régulation, du cadre de garantie humaine mis en place au travers d’éléments qui pourront être reportés et audités. La transparence, la responsabilité des entreprises, introduites par la garantie humaine, en termes de compétences techniques et de formation, sont essentielles.
Face aux inconnues, nombreuses, véhiculées par cette technologie et au risque de dérives éthiques , je suis convaincu que la garantie humaine et le cadre réglementaire sont une opportunité de la faire prospérer de façon équilibrée, dans le respect des droits humains et de la vie privée.

En renforçant la confiance entre les entreprises, notamment du secteur assurantiel, et les consommateurs, et plus largement les citoyens, nous avons une opportunité de bâtir un modèle au service du progrès et du bien commun.

Lire l’article complet sur : www.lesechos.fr