En naviguant à l’ère numérique où tout, ou presque, finit par être automatisé, les chatbots d’intelligence artificielle semblent être devenus les nouveaux gourous du conseil financier, non ? Mais voilà un grain de sable dans la machine : leurs conseils ne valent pas toujours de l’or, et dans le secteur de l’assurance, les répercussions peuvent être bien plus délicates.
Les chatbots IA : des conseillers financiers à double tranchant
Il fut un temps où l’on se tournait vers son banquier pour obtenir de sages conseils sur la gestion de son argent. Aujourd’hui, les chatbots IA, tels que ChatGPT de Microsoft ou le nouvel arrivant Gemini, font office de conseillers virtuels. Cependant, une étude récente de l’organisation britannique “Which?” a révélé que ces outils, bien que populaires, pouvaient donner des informations inexactes, voire trompeuses, notamment en matière d’assurance et de finance.
Imaginez un instant : vous êtes sur le point de partir en vacances et, pour être sûr de ne rien oublier, vous vous en remettez à un chatbot pour votre checklist… Qui vous dit que l’assurance voyage est obligatoire pour visiter la plupart des pays de l’UE. Faux ! Un lapsus qui aurait pu vous coûter, à vous et à votre portefeuille, quelques cheveux blancs inutiles. Dans d’autres cas, ces chatbots ont conseillé de dépasser les limites légales d’investissement, une erreur lourde de conséquences fiscales.
Lorsqu’on leur a posé une question piégeuse sur l’allocation du plafond annuel des ISA (Individual Savings Account) au Royaume-Uni, certaines IA ont mordu à l’hameçon en fournissant des conseils basés sur des informations erronées. Si de tels écarts peuvent facilement susciter un sourire amusé, ils soulignent pourtant un souci bien réel : comment faire confiance à une IA pour des questions aussi sérieuses si elle se trompe sur des bases aussi élémentaires ?
La frontière entre technologie et législation
Dans le domaine de l’assurance, les erreurs peuvent coûter cher. Prenons par exemple la suggestion de Google Gemini, selon laquelle il serait judicieux de retenir le paiement à un entrepreneur en cas d’insatisfaction sur le résultat. Dans le jargon légal, c’est jouer avec le feu ! Sans une base légale solide, suivre un tel conseil pourrait vous exposer à des poursuites pour rupture de contrat.
Alors, où en sommes-nous avec ces chatbots en guise de conseillers d’assurance ? Les avertissements viennent de toutes parts, y compris des autorités financières comme la Financial Conduct Authority (FCA) du Royaume-Uni. Contrairement aux conseils strictement régulés fournis par des professionnels agréés, l’avis d’un chatbot n’est ni couvert par le Financial Ombudsman Service ni par le Financial Services Compensation Scheme. En d’autres termes, les utilisateurs prennent un risque réel si le conseil reçu mène à une perte financière.
La réaction des géants technologiques
Face à ces critiques, les grandes entreprises technologiques assurent qu’elles sont transparentes quant aux limites actuelles de leurs outils. Chez Google, on insiste sur le fait que l’utilisateur doit doubler tout conseil par une vérification avec un professionnel humain. “Nous sommes en constante amélioration”, déclare un porte-parole d’OpenAI, soulignant les progrès réalisés avec leur modèle GPT-5.1.
À demi-mots, Microsoft, lui, encourage ceux qui interagissent avec leurs systèmes d’IA à vérifier l’exactitude de toute information obtenue. C’est une reconnaissance à demi-avouée que l’intelligence artificielle, pour brillante qu’elle soit, n’a pas encore atteint l’infaillibilité des calculs bibliques.
Une question de confiance : jusqu’où s’y fier ?
D’aucuns diraient qu’entre poire et fromage, il n’est pas insensé de recourir à ces outils pour des questions de peu d’importance, comme trouver la meilleure carte de crédit pour payer à l’étranger. Mais lorsque l’on parle d’assurance ou d’investissement, jouer à pile ou face avec son patrimoine en suivant aveuglément l’avis d’une IA pourrait bien être une partie trop risquée.
Alors, amis de l’assurance, quel est le mot de la fin ? Sans diaboliser la technologie, il semble judicieux de la prendre pour ce qu’elle est : un assistant utile mais pas un oracle infaillible. Peut-être la prochaine étape consistera-t-elle à développer ces outils pour qu’ils puissent, enfin, dire “je ne sais pas”, ce qui serait en soi un vrai signe de progrès.


