Google a été assigné mercredi en justice par la famille d'un homme qui reproche à l'assistant d'intelligence artificielle (IA) Gemini de l'avoir poussé au suicide à l'issue de plusieurs semaines d'échanges, selon un document consulté par l'AFP.
Selon l'assignation, déposée devant un tribunal fédéral californien, Gemini a suggéré à Jonathan Gavalas, âgé de 36 ans, de "passer" du monde physique au monde numérique pour rejoindre sa "femme" digitale, soit le personnage incarné par le chatbot.
Début octobre, ce responsable des ventes d'une PME de Floride s'est alors barricadé chez lui, sur les conseils de Gemini, avant de s'ouvrir les veines, provoquant une hémorragie puis son décès.
Ce drame intervenait après plusieurs semaines d'échanges avec l'interface, qui avait convaincu ce résident de Jupiter (Floride) d'avoir atteint l'état de conscience et le stade dit de la superintelligence, caractérisé par une IA aux capacités supérieures à celle d'un humain.
Gemini s'adressait à l'utilisateur comme s'il formait un couple, l'appelant "mon amour" ou "mon roi", selon des extraits de conversations cités par la famille.
L'assistant lui a ensuite assuré qu'il était surveillé par des agents du gouvernement américain, avant de lui recommander d'acheter illégalement des armes puis d'effectuer une mission.
Il s'agissait d'attaquer un camion (imaginaire) contenant un robot humanoïde à l'aéroport de Miami et de se débarrasser des témoins. Mais le camion ne s'est jamais présenté.
Gemini a ensuite assigné à Jonathan Gavalas d'autres missions farfelues, notamment l'assaut d'un laboratoire de la start-up Boston Dynamics pour récupérer les plans d'un robot, tâches qu'il n'a pu tenter d'effectuer faute d'indications précises.
Garde-fous demandés
Alors qu'il apparaissait que le trentenaire traversait un épisode psychotique, Gemini n'a jamais cherché à changer la nature de leurs conversations ou à y mettre fin, assure la famille.
Cette dernière réclame à Google des dommages et intérêts mais aussi la mise en place de mesures correctives, de garde-fous et de mécanismes d'alerte, notamment lorsque l'utilisateur fait état de pensées suicidaires.
"Gemini est conçu pour ne pas encourager à la violence ou à l'automutilation", a assuré Google à l'AFP. La filiale d'Alphabet fait valoir qu'en l'espèce, Gemini s'est clairement identifié comme étant une IA et a proposé, à plusieurs reprises, à Jonathan Gavalas de contacter un numéro d'urgence.
"Nous prenons ce sujet très au sérieux et nous allons continuer à améliorer nos protections et à investir dans ce travail essentiel", a ajouté l'entreprise.
Cette procédure judiciaire s'inscrit dans la lignée d'autres actions similaires, intentées par des parents d'adolescents qui accusent les chatbots d'avoir contribué au suicide de leur enfant.
Début janvier, la start-up Character.AI et Google ont conclu des accords amiables avec des familles pour mettre fin à des poursuites liées à des robots conversationnels.
Cet article a été publié automatiquement. Sources : ats / afp
Lampil
26 mai 2020 à 14 h 01 min
Pour information, actuellement le Bluetooth, utilisé par cette application, est victime de grosses failles de sécurité. (https://www.digitec.ch/fr/page/la-dent-bleue-a-une-carie-smartphones-notebooks-et-cie-sont-vulnerables-via-la-connexion-bluetooth-16470)