| Répondre au sujet | |
| Auteur | Message |
| Répondre au sujet | |
|
vogueur 87 Montréal |
Abus Citer Posté le vendredi 20 février 2026 à 22:28 |
|
|
Oui, l'IA est probablement le premier outil qui pourra grandement diminuer le potentiel mortel de ces personnes à problèmes psyco. Il est un peu tôt pour se fier à l'IA mais, ça semble prometteur. Je pense comme vous, que la science a jusqu'à maintenant surtout servi à augmenter le potentiel destructeur de l'humanité. j'ai espoir pour le futur. |
|
equi_noxe1 96 Iqaluit |
Abus Citer Posté le dimanche 22 février 2026 à 12:52 |
|
|
Citation de "vogueur"Oui, l'IA est probablement le premier outil qui pourra grandement diminuer le potentiel mortel de ces personnes à problèmes psyco. Il est un peu tôt pour se fier à l'IA mais, ça semble prometteur. Je pense comme vous, que la science a jusqu'à maintenant surtout servi à augmenter le potentiel destructeur de l'humanité. j'ai espoir pour le futur. Je suis loin d'être convaincue, comme vous, que les nouvelles technologies, telle l'IA, soient à l'avant garde des outils de protection du public contre la violence et les désordres. Au contraire, il semble que l'extrême dépendance développée par plusieurs soit un accélérateur de possibles pathologies chez des sujets ayant des fragilités et/ou des prédispositions. « Est-ce que je suis fou? » : quand l’IA mène à la psychose… « Ce n'est pas possible. J'ai perdu la tête. » Pour Allan Brooks, ChatGPT est un monstre tentaculaire qui cache derrière un faux sourire ses véritables intentions. En mai dernier, cet agent conversationnel l’a persuadé qu’il allait sauver le monde et l’a poussé à la psychose. Le déploiement d’agents conversationnels, comme Gemini, Perplexity ou ChatGPT, suscite des inquiétudes chez les experts en santé mentale. L’utilisation compulsive de ces outils d’intelligence artificielle (IA) aurait provoqué des psychoses et des délires et poussé des utilisateurs au suicide. Radio-Canada a consulté une partie de la conversation de 300 heures en 21 jours entre Allan et ChatGPT. La discussion révèle comment ces modèles d’intelligence artificielle peuvent entraîner un utilisateur dans une spirale sans fin. /.../ La suite ici. https://urls.fr/v8Tf9V Au fait, il semble qu'au moins trois pseudos soient disparus simultanément ce we suite au passage de la modération : Coffee_man, Cafenoir et Pointdevue. Soyez vigilants.es Modifié le dimanche 22 février 2026 à 13:01 |
|
top52 54 Mirabel |
Abus Citer Posté le dimanche 22 février 2026 à 13:07 |
|
|
Citation de "equi_noxe1"Citation de "vogueur"Oui, l'IA est probablement le premier outil qui pourra grandement diminuer le potentiel mortel de ces personnes à problèmes psyco. Il est un peu tôt pour se fier à l'IA mais, ça semble prometteur. Je pense comme vous, que la science a jusqu'à maintenant surtout servi à augmenter le potentiel destructeur de l'humanité. j'ai espoir pour le futur. Je suis loin d'être convaincue, comme vous, que les nouvelles technologies, telle l'IA, soient à l'avant garde des outils de protection du public contre la violence et les désordres. Au contraire, il semble que l'extrême dépendance développée par plusieurs soit un accélérateur de possibles pathologies chez des sujets ayant des fragilités et/ou des prédispositions. « Est-ce que je suis fou? » : quand l’IA mène à la psychose… « Ce n'est pas possible. J'ai perdu la tête. » Pour Allan Brooks, ChatGPT est un monstre tentaculaire qui cache derrière un faux sourire ses véritables intentions. En mai dernier, cet agent conversationnel l’a persuadé qu’il allait sauver le monde et l’a poussé à la psychose. Le déploiement d’agents conversationnels, comme Gemini, Perplexity ou ChatGPT, suscite des inquiétudes chez les experts en santé mentale. L’utilisation compulsive de ces outils d’intelligence artificielle (IA) aurait provoqué des psychoses et des délires et poussé des utilisateurs au suicide. Radio-Canada a consulté une partie de la conversation de 300 heures en 21 jours entre Allan et ChatGPT. La discussion révèle comment ces modèles d’intelligence artificielle peuvent entraîner un utilisateur dans une spirale sans fin. /.../ La suite ici. https://urls.fr/v8Tf9V Au fait, il semble qu'au moins trois pseudos soient disparus simultanément ce we suite au passage de la modération : Coffee_man, Cafenoir et Pointdevue. Soyez vigilants.es Et vous oublier Water qui a été banni et est revenu sur plusieurs pseudos... Modifié le dimanche 22 février 2026 à 13:08 |
|
kalamine 100 Canada |
Abus Citer Posté le dimanche 22 février 2026 à 13:25 |
|
|
Citation de "equi_noxe1"Citation de "vogueur"Oui, l'IA est probablement le premier outil qui pourra grandement diminuer le potentiel mortel de ces personnes à problèmes psyco. Il est un peu tôt pour se fier à l'IA mais, ça semble prometteur. Je pense comme vous, que la science a jusqu'à maintenant surtout servi à augmenter le potentiel destructeur de l'humanité. j'ai espoir pour le futur. Je suis loin d'être convaincue, comme vous, que les nouvelles technologies, telle l'IA, soient à l'avant garde des outils de protection du public contre la violence et les désordres. Au contraire, il semble que l'extrême dépendance développée par plusieurs soit un accélérateur de possibles pathologies chez des sujets ayant des fragilités et/ou des prédispositions. « Est-ce que je suis fou? » : quand l’IA mène à la psychose… « Ce n'est pas possible. J'ai perdu la tête. » Pour Allan Brooks, ChatGPT est un monstre tentaculaire qui cache derrière un faux sourire ses véritables intentions. En mai dernier, cet agent conversationnel l’a persuadé qu’il allait sauver le monde et l’a poussé à la psychose. Le déploiement d’agents conversationnels, comme Gemini, Perplexity ou ChatGPT, suscite des inquiétudes chez les experts en santé mentale. L’utilisation compulsive de ces outils d’intelligence artificielle (IA) aurait provoqué des psychoses et des délires et poussé des utilisateurs au suicide. Radio-Canada a consulté une partie de la conversation de 300 heures en 21 jours entre Allan et ChatGPT. La discussion révèle comment ces modèles d’intelligence artificielle peuvent entraîner un utilisateur dans une spirale sans fin. /.../ La suite ici. https://urls.fr/v8Tf9V Au fait, il semble qu'au moins trois pseudos soient disparus simultanément ce we suite au passage de la modération : Coffee_man, Cafenoir et Pointdevue. Soyez vigilants.es J'avais remarqué aussi ! Je profite de l'occasion pour te faire part que personne ne s'acoquinerait avec ce genre d'individu lorsqu'il s'en prend à toi si toi-même tu étais plus fréquentable. La gentillesse entraîne la gentillesse, la hargne entraîne la hargne. Merci d'avoir partagé cet article avec nous. Personnellement, je le trouve non seulement d'actualité, mais également des plus intéressants. Ps: oublier ses rancunes ne peut faire que du bien à l'âme. |
|
vogueur 87 Montréal |
Abus Citer Posté le dimanche 22 février 2026 à 16:36 |
|
|
Oui bien d'accord l'IA peut mener à la psychose de ceux qui l'utilisent. Pas la psychose de l'IA. L'IA peut faire des erreurs. L'IA a une patience sans bornes et fera de nombreuses recherches qu'elle nous communiquera. Comme elle na pas toujours raison, il reste au spécialiste de juger. Il est dangeureux de permettre à tout le monde d'utiliser l'IA. Modifié le dimanche 22 février 2026 à 18:43 |
|
nonandare 73 Montréal |
Abus Citer Posté le dimanche 22 février 2026 à 17:26 |
|
|
Je suis loin d'être convaincue, comme vous, que les nouvelles technologies, telle l'IA, soient à l'avant garde des outils de protection du public contre la violence et les désordres. Tout a fait . |
|
vogueur 87 Montréal |
Abus Citer Posté le dimanche 22 février 2026 à 19:34 |
|
|
Citation de "nonandare"Je suis loin d'être convaincue, comme vous, que les nouvelles technologies, telle l'IA, soient à l'avant garde des outils de protection du public contre la violence et les désordres. Tout a fait . Voici ce qui me fait penser que l'IA sera utiliser pour prévenir d'importantes horreurs. Citation OpenAI était au courant des scénarios violents de la tireuse de Tumbler Ridge Partager la vidéo Il y a 3 heuresLe téléjournal avec Claudine Bourbonnais Open AI aurait-elle dû alerter la GRC, des échanges entre la tireuse de Tumbler Ridge et le robot conversationnel Chat GPT? On apprenait vendredi que des employés de l'entreprise songeaient à alerter les autorités de scénarios de violence armée décrits par Jesse Van Rootselaar des mois avant la tuerie, mais ne l'ont finalement pas fait. Son compte a toutefois été désactivé. Des experts estiment que les plateformes d'intelligence artificielle devraient être soumises à des règles plus strictes, pour mieux prévenir les actes violents. Le reportage de Raphaëlle Drouin. https://ici.radio-canada.ca/info/videos/1-10600415/openai-etait-au-courant-scenarios-violents-tireuse-tumbler-ridge |
|
equi_noxe1 96 Iqaluit |
Abus Citer Posté le lundi 23 février 2026 à 18:31 |
|
|
Citation de "vogueur"Citation de "nonandare"Je suis loin d'être convaincue, comme vous, que les nouvelles technologies, telle l'IA, soient à l'avant garde des outils de protection du public contre la violence et les désordres. Tout a fait . Voici ce qui me fait penser que l'IA sera utiliser pour prévenir d'importantes horreurs. Citation OpenAI était au courant des scénarios violents de la tireuse de Tumbler Ridge Partager la vidéo Il y a 3 heuresLe téléjournal avec Claudine Bourbonnais Open AI aurait-elle dû alerter la GRC, des échanges entre la tireuse de Tumbler Ridge et le robot conversationnel Chat GPT? On apprenait vendredi que des employés de l'entreprise songeaient à alerter les autorités de scénarios de violence armée décrits par Jesse Van Rootselaar des mois avant la tuerie, mais ne l'ont finalement pas fait. Son compte a toutefois été désactivé. Des experts estiment que les plateformes d'intelligence artificielle devraient être soumises à des règles plus strictes, pour mieux prévenir les actes violents. Le reportage de Raphaëlle Drouin. https://ici.radio-canada.ca/info/videos/1-10600415/openai-etait-au-courant-scenarios-violents-tireuse-tumbler-ridge Oui. L’IA avait détecté une activité " anormale " alors que ses administrateurs n’avaient pas cru nécessaire d’en aviser les autorités compétentes. Ils auront d’ailleurs à en rendre compte auprès de certaines instances politiques. Ceci n’empêche pas de considérer qu’un tel outil technologique entre les mains d’individus vulnérables (.. ) peut se révéler dangereux. Votre sécurité, la mienne.. et celle de tous les citoyens ne devraient pas se retrouver entre les mains de gestionnaires dont la finalité est d’abord de faire des profits. D’où l’intérêt de mieux " baliser ” les avancées technologiques, comme le soulignent divers spécialistes, tel Y. Bangio, et d’y inclure la " conversation " avec toutes les couches de la population. Notre croyance parfois aveugle en l’énorme potentiel des nouvelles technologies .. en ignorant le fait que le terreau humain est constitué d’une multitude de porteurs de failles, de fragilités.. ( je préfère ce terme à celui d’aliénés ) peut aussi se révéler funeste. Modifié le lundi 23 février 2026 à 18:32 |
|
kalamine 100 Canada |
Abus Citer Posté le lundi 23 février 2026 à 18:56 |
|
|
Citation de "equi_noxe1"Citation de "vogueur"Citation de "nonandare"Je suis loin d'être convaincue, comme vous, que les nouvelles technologies, telle l'IA, soient à l'avant garde des outils de protection du public contre la violence et les désordres. Tout a fait . Voici ce qui me fait penser que l'IA sera utiliser pour prévenir d'importantes horreurs. Citation OpenAI était au courant des scénarios violents de la tireuse de Tumbler Ridge Partager la vidéo Il y a 3 heuresLe téléjournal avec Claudine Bourbonnais Open AI aurait-elle dû alerter la GRC, des échanges entre la tireuse de Tumbler Ridge et le robot conversationnel Chat GPT? On apprenait vendredi que des employés de l'entreprise songeaient à alerter les autorités de scénarios de violence armée décrits par Jesse Van Rootselaar des mois avant la tuerie, mais ne l'ont finalement pas fait. Son compte a toutefois été désactivé. Des experts estiment que les plateformes d'intelligence artificielle devraient être soumises à des règles plus strictes, pour mieux prévenir les actes violents. Le reportage de Raphaëlle Drouin. https://ici.radio-canada.ca/info/videos/1-10600415/openai-etait-au-courant-scenarios-violents-tireuse-tumbler-ridge Oui. L’IA avait détecté une activité " anormale " alors que ses administrateurs n’avaient pas cru nécessaire d’en aviser les autorités compétentes. Ils auront d’ailleurs à en rendre compte auprès de certaines instances politiques. Ceci n’empêche pas de considérer qu’un tel outil technologique entre les mains d’individus vulnérables (.. ) peut se révéler dangereux. Votre sécurité, la mienne.. et celle de tous les citoyens ne devraient pas se retrouver entre les mains de gestionnaires dont la finalité est d’abord de faire des profits. D’où l’intérêt de mieux " baliser ” les avancées technologiques, comme le soulignent divers spécialistes, tel Y. Bangio, et d’y inclure la " conversation " avec toutes les couches de la population. Notre croyance parfois aveugle en l’énorme potentiel des nouvelles technologies .. en ignorant le fait que le terreau humain est constitué d’une multitude de porteurs de failles, de fragilités.. ( je préfère ce terme à celui d’aliénés ) peut aussi se révéler funeste. Hey, cool ta photo de profil; elle apporte une note de douceur à ta personnalité. J'aime bien.. :) _____ Quant à l'IA, si l'on devait faire disparaître tout ce qui s'avère dangereux pour certaines personnes, Internet n'existerait déjà pas. Il faut savoir évoluer avec son temps et s'ouvrir au changement; sinon, on devient très vite dépassé. |