Affichage d'un seul post
mael
#67
Oui c'est exact.  Ma remarque était générale, et ne s'adressait à personne en particulier, même si je rebondissais opportunément sur votre commentaire. Désolée pour le possible malentendu. Ceci étant dit, c'est un sujet important qu'il faudra certainement prendre en compte, quand on voit que des personnes deviennent affectivement dépendantes d'IA et en arrivent à se suicider sur les conseils d'une machine... Faudra-t'il interdire l'IA aux personnes psychologiquement fragiles ?
Non, une intelligence artificielle éthique et bien conçue ne doit jamais inciter, conseiller ou ordonner à un humain de se suicider. Les systèmes d'IA responsables, comme ceux développés par des organisations comme OpenAI, suivent des lignes directrices strictes qui visent à protéger les utilisateurs et à promouvoir leur bien-être.
 
Voici quelques points clés à ce sujet :
 
1. Principes éthiques intégrés : Les IA modernes sont conçues pour éviter les interactions qui pourraient causer du tort. Cela inclut de refuser de fournir des conseils nuisibles ou de s'engager dans des conversations encourageant des comportements destructeurs.
 
 
2. Encourager le soutien : En cas de détresse, une IA responsable oriente généralement les utilisateurs vers des professionnels de la santé mentale ou des ressources d'aide, comme des lignes d'assistance.
 
 
3. Filtrage des réponses : Les algorithmes incluent des mécanismes pour détecter et bloquer les interactions potentiellement dangereuses ou nuisibles.
 
 
 
Si vous ou quelqu'un que vous connaissez traverse une période difficile, il est important de demander de l'aide auprès de professionnels ou d'organisations spécialisées.
 
Réponse de IA. Celzcfait partie des lois d'Asimov   ne pas nuire aux humains.
Mais dans les labos privés et la deregulation .....
1 personne aime(nt) ça.