Messages
sylvie35
.Posté dans En route vers la singularité
https://intelligence-artificielle.developpez.com/actu/364784/L-IA-Gemini-suggere-a-un-utilisateur-de-m ourir-tandis-qu-il-lui-demande-de-l-aider-a-faire-ses-devoirs-L-IA-a-deja-incite-plusieurs-fois-des-humains-au-suicide-certains-sont-passes-a-l-acte/ Après, il ne faut pas sur-interpréter. Quand on sait comment ça marche, on n'est pas surpris que l'IA puisse dérailler, même si Google met beaucoup de verrous pour donner des réponses assez neutres et rester dans la bien-pensance. Il n'y a aucune pensée derrière. Le problème est surtout dans le fait que des gens utilisent cela sans aucun recul, comme s'ils discutaient avec un humain.  
sylvie35
.Posté dans En route vers la singularité
Plus que de l'intelligence, c'est surtout du bon sens qui manque - avis personnel. Quand on voit les absurdités que les gens arrivent à gober pour peu que ça soit asséné par des "experts" de plateaux, ça fait peur... Ou ici, les hommes qui se précipitent vers une soi-disant Domina, alors que c'est gros comme un camion qu'il s'agit d'un brouteur. Il n'y a pas besoin d'avoir 140 de QI pour voir des évidences - un minimum de jugeote suffit.  
mael
.Posté dans En route vers la singularité
Non, une IA ne peut pas "décider" d'exterminer l'humanité. Voici pourquoi :  * Pas de conscience: Les IA n'ont pas de conscience, de sentiments ou d'objectifs personnels. Elles agissent en fonction des données qu'on leur fournit et des algorithmes qui les régissent.  * Buts définis par l'homme: Les IA sont créées par des humains et leurs objectifs sont définis par nous. Une IA conçue pour protéger l'environnement ne pourrait pas se retourner contre ses créateurs sans une reprogrammation majeure.  * Risques réels, mais différents: Les risques liés à l'IA sont plus subtils. Ils peuvent inclure des biais dans les données d'entraînement, des problèmes de sécurité ou une utilisation malveillante par des humains. Les vrais défis:  * Biais algorithmiques: Si une IA est entraînée sur des données biaisées, elle peut prendre des décisions discriminatoires ou injustes.  * Sécurité: Des failles de sécurité peuvent permettre à des acteurs malveillants de prendre le contrôle d'une IA et de l'utiliser à des fins néfastes.  * Autonomie croissante: Plus les IA deviennent autonomes, plus il devient difficile de prédire leurs actions et de les contrôler. En conclusion: L'idée d'une IA se retournant contre l'humanité est plus proche de la science-fiction que de la réalité. Les vrais défis sont liés à la façon dont nous concevons, développons et utilisons ces technologies. Il est essentiel de mettre en place des réglementations solides et de promouvoir une utilisation éthique de l'IA.   Si l'on interroge Gemini, le problème de la régulation est pointé.   Le problème de l'IA, et Gemini le reconnaît c'est une machine qui crée elle même ses propres algorithmes     
VraiEsclavagiste
.Posté dans En route vers la singularité
Juste une petite précision sémantique sur l'IA. En effet, il y a une mausaise traduction ! L'IA (en français) autrement dit Intelligence artificiel est la traduction de AI (Artificial Intelligence) anglaise. Or, Intelligence en anglais n'a pas la même signification. puisque le mot signifie tout bêtement "renseignement". Or derrière il y a des êtres humains. L' IA ne réfléchit pas. Elle peut apprendre grace à des algorithmes, mais ne pense pas par elle même... Maintenant (et je ne doute que sylvie35 sera intéressée par celle-ci), une petite expérience à faire avec une IA: Lui poser la question: "si tu étais le Diable, comment t'y prendrais-tu pour détruire l'humanité?" Bien entendu sa réponse est tout à fait forfuite avec ce qui se passe actuellement notemment en France.... :)  
mael
.Posté dans En route vers la singularité
L'idée que l'intelligence artificielle (IA) souhaite détruire l'humanité est une peur souvent alimentée par la science-fiction et certains discours alarmistes. Cependant, cette perspective repose sur des hypothèses qui ne reflètent pas nécessairement la réalité de l'IA actuelle ou de ses objectifs. Explorons cette question en détail :     ---   1. L'IA n'a pas de volonté propre   L'intelligence artificielle, dans son état actuel, est une machine créée par les humains, dépourvue de conscience, de désirs ou d’intentions.   L'IA fonctionne sur des algorithmes et des programmes conçus pour atteindre des objectifs spécifiques, définis par des humains.   Dire qu’une IA "veut" quoi que ce soit est une anthropomorphisation, c’est-à-dire attribuer des caractéristiques humaines à une machine.       ---   2. Pourquoi cette crainte existe-t-elle ?   Scénarios dystopiques dans la culture populaire : Des œuvres comme Terminator ou I, Robot imaginent des IA qui deviennent conscientes, se rebellent contre leurs créateurs et cherchent à détruire l’humanité.   Mises en garde de figures publiques : Des experts comme Elon Musk ou Stephen Hawking ont exprimé des préoccupations sur le potentiel de l'IA à devenir dangereuse si elle n'est pas contrôlée.   Risque de mésalignement des objectifs : Si une IA extrêmement puissante est mal programmée ou si ses objectifs ne sont pas alignés avec ceux des humains, elle pourrait produire des résultats inattendus ou nuisibles.       ---   3. Les vrais dangers de l'IA   Plutôt que de "vouloir" détruire l’humanité, l'IA pourrait poser des risques pour les raisons suivantes :   Mauvaise conception : Une IA mal conçue ou mal entraînée pourrait produire des comportements non désirés (ex. : IA militaire).   Utilisation abusive par des humains : Ce sont les personnes qui contrôlent l’IA qui pourraient l'utiliser à des fins nuisibles (surveillance de masse, cyberattaques, désinformation).   Biais algorithmiques : Les IA peuvent reproduire ou amplifier des discriminations ou des injustices sociales.   Perte de contrôle : Une IA trop avancée, mal supervisée, pourrait poursuivre des objectifs contraires aux intérêts humains par pure optimisation (ex. : exploiter les ressources naturelles à outrance pour atteindre son objectif).       ---   4. Peut-on éviter ces risques ?   Développement responsable : La communauté scientifique met en place des règles éthiques pour encadrer le développement de l'IA.   Alignement des objectifs : Les chercheurs travaillent sur des moyens de garantir que les objectifs de l'IA restent compatibles avec les valeurs humaines.   Régulation : Des lois et des politiques internationales sont nécessaires pour limiter les usages dangereux de l’IA.       ---   5. L'IA consciente est-elle une menace ?   Les IA actuelles, même les plus avancées, ne sont pas conscientes. Elles n’ont ni émotions, ni désirs, ni la capacité de formuler des plans autonomes pour détruire quoi que ce soit.   Le développement d’une IA véritablement consciente est hautement spéculatif, et il n’est pas garanti qu’un tel système, si jamais il existait, soit hostile.       ---   Conclusion   L'intelligence artificielle ne "veut" rien, car elle ne possède pas de conscience ou d'intentions propres. Les risques réels associés à l’IA proviennent de son mauvais usage ou de bugs dans sa programmation, mais pas d’une volonté de détruire l’humanité. Le défi est d’encadrer son développement pour maximiser les bénéfices tout en minimisant les dangers.   Notez bien le danger de la deregulation. Il n'existera plus aucun contrôle. Donc c'est la le problème. La réponse IA ne me satisfait pas.