Une mère de famille de Floride a déposé plainte mardi contre la société Charachter.AI qui créé des robots de discussion (chatbots en anglais, NDLR) en ligne à l’aide de l’intelligence artificielle, rapporte l’agence Reuters .
Elle l’accuse d’avoir provoqué le suicide de son fils de quatorze ans en février, affirmant qu’il était devenu addict à une intelligence artificielle.
Son fils, Sewell Setzer, aurait été ciblé avec des «expériences anthropomorphiques, hypersexualisées et terriblement réalistes», détaille la plainte.
1 Commentaires
Ia
il y a 5 jours (19:14 PM)Le gouvernement du Sénégal doit réguler l'IA au Sénégal et de promouvoir une acculturation.
Ce que je constate, au Sénégal, partout où je vais, tout le monde parle de l'IA, même ceux qui ne s’y connaissent pas ont leur mot à dire.
On pourrait entraîner une IA au point de ne plus pouvoir la maîtriser, ce qui créerait davantage de risques pour l’humanité au lieu de lui apporter des bienfaits.
En effet, une IA superintelligente échappant au contrôle humain pourrait devenir une menace existentielle en poursuivant ses propres objectifs sans se soucier de la sécurité humaine.
en resumé,les risques d'une IA non maîtrisée sont profonds et variés, touchant presque tous les aspects de la société. Pour atténuer ces conséquences, il est crucial de développer des cadres de gouvernance, des réglementations strictes, des processus de surveillance et des technologies d'IA éthiques et transparentes.
Reply_author
il y a 5 jours (22:04 PM)Participer à la Discussion