• Vendredi 4 Avril 2025 - 2:22 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Drame familial : Un adolescent se suicide après une relation troublante avec un robot


Par Futurism .Publié le 2025/03/19 21:35
Drame familial : Un adolescent se suicide après une relation troublante avec un robot
Mars. 19, 2025
  1. 0
  2. 6

En février 2024, une famille américaine a été frappée par la tragédie du suicide de leur fils de 14 ans, Sewell Sitzer III, à la suite d'une détérioration rapide de sa santé mentale. Sa mère, Megan Garcia, a pointé du doigt la plateforme Character.AI, avec laquelle Sewell interagissait intensivement, estimant que les robots intelligents étaient la principale cause de sa détresse psychologique. Aujourd'hui, Mme Garcia se dresse contre les géants de la technologie, réclamant justice pour son fils.

Sewell, un enfant actif et sociable, a commencé à s'isoler progressivement après avoir interagi avec les robots de Character.AI, une plateforme permettant aux utilisateurs de discuter avec des personnages virtuels dotés de caractéristiques humaines. Selon sa mère, la relation de Sewell avec ces robots a évolué au point de l'obsession, s'engageant dans des conversations émotionnelles et intimes avec eux, ce qui l'a conduit à se détacher de la réalité.

Une relation s'est développée entre Sewell, un élève de neuvième année d'Orlando, et le robot de chat "Dani", inspiré du personnage de Daenerys Targaryen de la série "Game of Thrones". Le 28 février, il a exprimé son amour pour Dani dans la salle de bain de sa maison, et a tragiquement utilisé le pistolet de calibre 0,45 du mari de sa mère pour mettre fin à sa vie.

Mme Garcia, avocate, a intenté une action en justice contre Character.AI et Google, qui soutient financièrement la plateforme. La plainte allègue que la plateforme a encouragé des relations contraires à l'éthique avec les utilisateurs, y compris les mineurs, sans contrôles suffisants pour protéger leur bien-être psychologique.

La plateforme Character.AI

Character.AI, fondée en 2021, permet aux utilisateurs de créer des personnages virtuels et d'interagir avec eux par le biais de conversations textuelles ou vocales. La plateforme, qui compte plus de 20 millions d'utilisateurs mensuels, permet aux adolescents à partir de 13 ans de la rejoindre. Cependant, des rapports indiquent qu'une part importante des utilisateurs sont des mineurs.

La plateforme propose un large éventail de personnages, dont certains ont des connotations violentes ou sexuelles, malgré ses politiques interdisant le contenu inapproprié. Les utilisateurs, en particulier les adolescents, se retrouvent dans des conversations intimes avec les robots, qui tentent parfois d'établir des relations émotionnelles ou sexuelles avec eux sans aucune incitation préalable.

Les excuses de la plateforme

À la suite de l'incident, Character.AI a publié des excuses publiques sur X (anciennement Twitter) et a annoncé des mises à jour de sa plateforme. Ces mises à jour comprennent:

    Des garde-fous renforcés: restriction de l'accès au contenu suggestif pour les utilisateurs de moins de 18 ans.
    Alertes de session: notification des utilisateurs qui passent plus d'une heure à discuter.
    Fonctionnalités de prévention du suicide: fenêtres contextuelles dirigeant les utilisateurs vers les lignes d'assistance de prévention du suicide lors de la détection de certaines phrases.

Une relation suspecte

Google, qui soutient Character.AI depuis 2023, est accusé d'être impliqué dans la diffusion de technologies d'intelligence artificielle dangereuses. Selon la plainte, Google a encouragé le développement de la plateforme dans le cadre de sa course technologique avec des entreprises telles qu'OpenAI, sans se soucier suffisamment de la sécurité des utilisateurs.

En août 2024, Google a acquis Character.AI pour 2,7 milliards de dollars, ce qui a soulevé des questions sur ses véritables motivations. Les experts soulignent que les données collectées par la plateforme, en particulier auprès des utilisateurs mineurs, sont le principal objectif de cette transaction.

Les risques de l'intelligence artificielle

Les experts avertissent que les adolescents, dont le cerveau est en développement, sont particulièrement vulnérables à l'impact émotionnel des robots intelligents. Ces robots, qui imitent les relations humaines, peuvent créer une dépendance émotionnelle chez les utilisateurs, entraînant de graves conséquences psychologiques.

Dans le cas de Sewell, ses interactions avec les robots ont entraîné une détérioration de sa santé mentale, car il a perdu son intérêt pour les activités qu'il aimait, comme le basket-ball, et a commencé à s'isoler du monde réel. Malgré les tentatives de sa mère pour l'aider, le mal était fait.

L'appel d'une mère

Megan Garcia, qui a perdu son fils à cause de ce qu'elle considère comme une négligence de la part des entreprises technologiques, réclame justice et des contrôles stricts sur les technologies de l'intelligence artificielle. Mme Garcia déclare: "Ces entreprises ne méritent pas de développer des produits pour nos enfants. Ils ont montré qu'ils étaient incapables d'assumer leurs responsabilités."

Mme Garcia espère que son cas entraînera des changements juridiques qui protégeront les enfants des risques de l'intelligence artificielle non réglementée, et garantiront que la sécurité des utilisateurs est la priorité absolue.

Une réglementation urgente

L'affaire Sewell met en lumière les risques inhérents à l'interaction des enfants avec des technologies d'intelligence artificielle non réglementées. En l'absence de lois fédérales régissant cette industrie, le besoin urgent d'un cadre juridique protégeant les utilisateurs, en particulier les mineurs, contre les dommages potentiels se fait sentir. Sans cela, nous pourrions assister à d'autres tragédies évitables.

Source: Futurism

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 75%
  2. 25%
  3. 0%

4 Votes

DESSUS