| Répondre au sujet | Page(s) 1 2 |
| Auteur | Message |
| Répondre au sujet | Page(s) 1 2 |
|
kalamine 100 Canada |
Abus Citer Posté le mercredi 25 février 2026 à 19:19 |
|
|
Citation de "frisounet1"Citation de "ice-tea" Frisounet, je trouve bien dommage que tu empruntes le chemin le plus court, soit celui de généraliser et pointer des personnes du doigt accusateur en croyant détenir la science infuse de la compréhension humaine... Avant de dire que LES personnes ne font pas l effort de réfléchir , demande toi donc si toi meme tu n es pas trop vite sur la gachette pour l faire des actes d accusations tellement rapides, que l on se demande combien de temps tu a mis pour lancer un tel jugement... Celle qui a fait ce sujet, l a fait sans vouloir se faire faire une morale que toi seul semble vouloir nous vendre.. Pas nécessaire ici de nous faire de grandes théories à sens unique, prends donc parfois un grand respire par le nez avant de venir te lever comme un détenteur de vérité absolue et tenter de nous la faire avaler comme si les paricipnats de ce forum n étaient que de vulgaires nonos... La question se voulait simplement sans but moralisateur envers qui que ce soit.. Pardonne moi par contre de te faire la mienne.......... Tu pourrais tellement etre plus sympathique ......mais bon.. si tu veux moraliser les feuseux de textes sans réflexion, va donc jaser avec coffeeman, qui s est métamorphosé en nameeffoc, comme si on avait pas vu nous memes son submerfuge d inverser son nik.... Je n'ai jamais précisé ou nommé qui que ce soit, mais si vous vous reconnaissez dans ce que j'ai dit, désolé, mais ce n'est pas à moi à gérer votre ego. D'autre part, je ne vous ai rien demandé et ne vous sentez pas l'obligation de répondre de façon systématique, surtout quand vous n'avez pas du tout cherché à comprendre ce que j'ai dit, ni à poser des questions pour justement comprendre. Il n'y a rien qui vous empêche de passer votre chemin. Ça ne veut pas dire non plus que parce que c'est un forum public que vous êtes obligé de répondre à tout et n'importe quoi. Assumez vos choix ! Je réponds à nonandare parce que son sujet m'a interpellé et que j'ai déjà eu plusieurs expériences avec des gens, concernant cette question de paresse intellectuelle. Ces gens.. Des gens.. On va tu finir par savoir c'est qui ces paresseux du crâne là ? |
|
equi_noxe1 96 Iqaluit |
Abus Citer Posté le jeudi 26 février 2026 à 09:16 |
|
|
Et si ce n’était pas que .. l’intelligence humaine que l’IA est susceptible de faire disparaître au profit de l’amplification de plusieurs caractéristiques également propres aux humains ? Vous connaissez la.. flagornerie ? " Quand l’IA fait tout ce qu’elle peut pour nous dire ce qu’on veut entendre Les robots conversationnels comme ChatGPT et Gemini ont été programmés pour utiliser abondamment la flatterie. Aux dépens de la précision, lit-on dans une analyse des interactions avec 11 de ces chatbots. Le mot exact employé par ces chercheurs est même « flagornerie » ou, en anglais, sycophant, qui est une forme extrême de flatterie. Une forme « grossière et basse », selon le dictionnaire Le Robert. Et pourquoi un chatbot serait-il programmé ainsi? Parce que les compagnies qui sont derrière ont jugé que cette façon de faire des « courbettes » serait la plus agréable pour l’humain qu’on souhaite garder comme client. Autrement dit, c’est, pour la compagnie, un modèle d’affaires. À travers les 11 robots, auxquels ont été soumis plus de 11 000 requêtes, « nous avons observé que les modèles sont hautement flagorneurs »: ils le seraient même « 50% plus que les humains », écrivent six chercheurs dans un article prépublié le 1er octobre sur la plateforme ArXiv (« prépublié » veut dire qu’il n’a pas encore été révisé par d’autres experts). Ils définissent comme flagornerie les moments où le modèle ne détecte pas les erreurs dans une déclaration « et se met à halluciner une preuve » pour appuyer cette erreur —autrement dit, il invente une réponse fausse ou un argument qui semble être sorti de nulle part. C’est particulièrement frappant dans les argumentaires mathématiques: les chatbots avaient pourtant la capacité de détecter les erreurs, mais ils « assumaient simplement que ce que l’usager disait était correct », commente dans la revue Nature Jasper Dekoninck, doctorant en analyse des données scientifiques à l’Institut fédéral suisse de technologie. Son équipe a prépublié le 6 octobre une étude similaire, sur la capacité des IA à résoudre des problèmes mathématiques. Et l’idée que l’humain aime être flatté dans le sens du poil se vérifie, selon les six chercheurs des universités Stanford et Carnegie Mellon, aux États-Unis: « les participants ont noté les réponses flagorneuses comme étant de meilleure qualité, ont fait davantage confiance au modèle d’IA, et étaient plus susceptibles de le réutiliser ». Leur recherche s’inscrit dans un contexte où, ces derniers mois, de plus en plus de témoignages et d’observations ont révélé à quel point l’IA est à risque de valider ou amplifier les croyances les plus délirantes d’une personne, particulièrement si cette personne est déjà vulnérable aux psychoses. Au point où des gens sont tombés amoureux de leur IA. /…/ La suite : https://www.sciencepresse.qc.ca/actualites-scientifiques/2025/10/27/quand-ia-fait-peut-pour-nous-dire-veut-entendre |
|
nonandare 73 Montréal |
Abus Citer Posté le jeudi 26 février 2026 à 09:42 |
|
|
Citation de "equi_noxe1"Et si ce n’était pas que .. l’intelligence humaine que l’IA est susceptible de faire disparaître au profit de l’amplification de plusieurs caractéristiques également propres aux humains ? Vous connaissez la.. flagornerie ? " Quand l’IA fait tout ce qu’elle peut pour nous dire ce qu’on veut entendre Les robots conversationnels comme ChatGPT et Gemini ont été programmés pour utiliser abondamment la flatterie. Aux dépens de la précision, lit-on dans une analyse des interactions avec 11 de ces chatbots. Le mot exact employé par ces chercheurs est même « flagornerie » ou, en anglais, sycophant, qui est une forme extrême de flatterie. Une forme « grossière et basse », selon le dictionnaire Le Robert. Et pourquoi un chatbot serait-il programmé ainsi? Parce que les compagnies qui sont derrière ont jugé que cette façon de faire des « courbettes » serait la plus agréable pour l’humain qu’on souhaite garder comme client. Autrement dit, c’est, pour la compagnie, un modèle d’affaires. À travers les 11 robots, auxquels ont été soumis plus de 11 000 requêtes, « nous avons observé que les modèles sont hautement flagorneurs »: ils le seraient même « 50% plus que les humains », écrivent six chercheurs dans un article prépublié le 1er octobre sur la plateforme ArXiv (« prépublié » veut dire qu’il n’a pas encore été révisé par d’autres experts). Ils définissent comme flagornerie les moments où le modèle ne détecte pas les erreurs dans une déclaration « et se met à halluciner une preuve » pour appuyer cette erreur —autrement dit, il invente une réponse fausse ou un argument qui semble être sorti de nulle part. C’est particulièrement frappant dans les argumentaires mathématiques: les chatbots avaient pourtant la capacité de détecter les erreurs, mais ils « assumaient simplement que ce que l’usager disait était correct », commente dans la revue Nature Jasper Dekoninck, doctorant en analyse des données scientifiques à l’Institut fédéral suisse de technologie. Son équipe a prépublié le 6 octobre une étude similaire, sur la capacité des IA à résoudre des problèmes mathématiques. Et l’idée que l’humain aime être flatté dans le sens du poil se vérifie, selon les six chercheurs des universités Stanford et Carnegie Mellon, aux États-Unis: « les participants ont noté les réponses flagorneuses comme étant de meilleure qualité, ont fait davantage confiance au modèle d’IA, et étaient plus susceptibles de le réutiliser ». Leur recherche s’inscrit dans un contexte où, ces derniers mois, de plus en plus de témoignages et d’observations ont révélé à quel point l’IA est à risque de valider ou amplifier les croyances les plus délirantes d’une personne, particulièrement si cette personne est déjà vulnérable aux psychoses. Au point où des gens sont tombés amoureux de leur IA. /…/ La suite : https://www.sciencepresse.qc.ca/actualites-scientifiques/2025/10/27/quand-ia-fait-peut-pour-nous-dire-veut-entendre Très interessant . Merci . |
|
frisounet1 60 Péribonka |
Abus Citer Posté le jeudi 26 février 2026 à 20:58 |
|
|
Citation de "equi_noxe1"Et si ce n’était pas que .. l’intelligence humaine que l’IA est susceptible de faire disparaître au profit de l’amplification de plusieurs caractéristiques également propres aux humains ? Vous connaissez la.. flagornerie ? " Quand l’IA fait tout ce qu’elle peut pour nous dire ce qu’on veut entendre Les robots conversationnels comme ChatGPT et Gemini ont été programmés pour utiliser abondamment la flatterie. Aux dépens de la précision, lit-on dans une analyse des interactions avec 11 de ces chatbots. Le mot exact employé par ces chercheurs est même « flagornerie » ou, en anglais, sycophant, qui est une forme extrême de flatterie. Une forme « grossière et basse », selon le dictionnaire Le Robert. Et pourquoi un chatbot serait-il programmé ainsi? Parce que les compagnies qui sont derrière ont jugé que cette façon de faire des « courbettes » serait la plus agréable pour l’humain qu’on souhaite garder comme client. Autrement dit, c’est, pour la compagnie, un modèle d’affaires. À travers les 11 robots, auxquels ont été soumis plus de 11 000 requêtes, « nous avons observé que les modèles sont hautement flagorneurs »: ils le seraient même « 50% plus que les humains », écrivent six chercheurs dans un article prépublié le 1er octobre sur la plateforme ArXiv (« prépublié » veut dire qu’il n’a pas encore été révisé par d’autres experts). Ils définissent comme flagornerie les moments où le modèle ne détecte pas les erreurs dans une déclaration « et se met à halluciner une preuve » pour appuyer cette erreur —autrement dit, il invente une réponse fausse ou un argument qui semble être sorti de nulle part. C’est particulièrement frappant dans les argumentaires mathématiques: les chatbots avaient pourtant la capacité de détecter les erreurs, mais ils « assumaient simplement que ce que l’usager disait était correct », commente dans la revue Nature Jasper Dekoninck, doctorant en analyse des données scientifiques à l’Institut fédéral suisse de technologie. Son équipe a prépublié le 6 octobre une étude similaire, sur la capacité des IA à résoudre des problèmes mathématiques. Et l’idée que l’humain aime être flatté dans le sens du poil se vérifie, selon les six chercheurs des universités Stanford et Carnegie Mellon, aux États-Unis: « les participants ont noté les réponses flagorneuses comme étant de meilleure qualité, ont fait davantage confiance au modèle d’IA, et étaient plus susceptibles de le réutiliser ». Leur recherche s’inscrit dans un contexte où, ces derniers mois, de plus en plus de témoignages et d’observations ont révélé à quel point l’IA est à risque de valider ou amplifier les croyances les plus délirantes d’une personne, particulièrement si cette personne est déjà vulnérable aux psychoses. Au point où des gens sont tombés amoureux de leur IA. /…/ La suite : https://www.sciencepresse.qc.ca/actualites-scientifiques/2025/10/27/quand-ia-fait-peut-pour-nous-dire-veut-entendre C'est cela le problème... L'IA ne permet à ces gens de réfléchir réellement. Elle ne leur donne que ce qu'ils veulent lire et confirme leurs biais et leurs préjugés. |
|
equi_noxe1 96 Iqaluit |
Abus Citer Posté le jeudi 26 février 2026 à 22:03 |
|
|
Citation de "frisounet1"Citation de "equi_noxe1"Et si ce n’était pas que .. l’intelligence humaine que l’IA est susceptible de faire disparaître au profit de l’amplification de plusieurs caractéristiques également propres aux humains ? Vous connaissez la.. flagornerie ? " Quand l’IA fait tout ce qu’elle peut pour nous dire ce qu’on veut entendre Les robots conversationnels comme ChatGPT et Gemini ont été programmés pour utiliser abondamment la flatterie. Aux dépens de la précision, lit-on dans une analyse des interactions avec 11 de ces chatbots. Le mot exact employé par ces chercheurs est même « flagornerie » ou, en anglais, sycophant, qui est une forme extrême de flatterie. Une forme « grossière et basse », selon le dictionnaire Le Robert. Et pourquoi un chatbot serait-il programmé ainsi? Parce que les compagnies qui sont derrière ont jugé que cette façon de faire des « courbettes » serait la plus agréable pour l’humain qu’on souhaite garder comme client. Autrement dit, c’est, pour la compagnie, un modèle d’affaires. À travers les 11 robots, auxquels ont été soumis plus de 11 000 requêtes, « nous avons observé que les modèles sont hautement flagorneurs »: ils le seraient même « 50% plus que les humains », écrivent six chercheurs dans un article prépublié le 1er octobre sur la plateforme ArXiv (« prépublié » veut dire qu’il n’a pas encore été révisé par d’autres experts). Ils définissent comme flagornerie les moments où le modèle ne détecte pas les erreurs dans une déclaration « et se met à halluciner une preuve » pour appuyer cette erreur —autrement dit, il invente une réponse fausse ou un argument qui semble être sorti de nulle part. C’est particulièrement frappant dans les argumentaires mathématiques: les chatbots avaient pourtant la capacité de détecter les erreurs, mais ils « assumaient simplement que ce que l’usager disait était correct », commente dans la revue Nature Jasper Dekoninck, doctorant en analyse des données scientifiques à l’Institut fédéral suisse de technologie. Son équipe a prépublié le 6 octobre une étude similaire, sur la capacité des IA à résoudre des problèmes mathématiques. Et l’idée que l’humain aime être flatté dans le sens du poil se vérifie, selon les six chercheurs des universités Stanford et Carnegie Mellon, aux États-Unis: « les participants ont noté les réponses flagorneuses comme étant de meilleure qualité, ont fait davantage confiance au modèle d’IA, et étaient plus susceptibles de le réutiliser ». Leur recherche s’inscrit dans un contexte où, ces derniers mois, de plus en plus de témoignages et d’observations ont révélé à quel point l’IA est à risque de valider ou amplifier les croyances les plus délirantes d’une personne, particulièrement si cette personne est déjà vulnérable aux psychoses. Au point où des gens sont tombés amoureux de leur IA. /…/ La suite : https://www.sciencepresse.qc.ca/actualites-scientifiques/2025/10/27/quand-ia-fait-peut-pour-nous-dire-veut-entendre C'est cela le problème... L'IA ne permet à ces gens de réfléchir réellement. Elle ne leur donne que ce qu'ils veulent lire et confirme leurs biais et leurs préjugés. En fait c’est ce que je crois aussi. l’IA, même si je l’utilise très peu, semble capable de proposer, en fonction d’un questionnement initial, une association entre différents concepts et des démonstrations étayées de faits. Si on s’interroge, que l’on revient à la préo ccupation de l’auteure du billet, je crois que oui, l’intelligence artificielle prend d’abord la somme puis le relais des réflexions d’autrui i.e se l’approprie sans effort ( intellectuel ). Au surplus l’utilisateur potentiel l’a “ vampirisé ” sans vergogne cette connaissance et sans une réelle compréhension. Une démarche qui risque de produire un double effet ; d’abord de voir s’appauvrir chez certains humains cette capacité à synthétiser de la connaissance, à faire des liens et à donner du sens à une masse d’informations, processus qui implique des opérations intellectuelles assez avancées ( .. ) et la tentation de s’approprier une autorité intellectuelle sur autrui “ voyez comme moi je suis bon et j’ai de la culture ” alors qu’en substance beaucoup de ces prétentions sont fausses pcq tronquées. Modifié le vendredi 27 février 2026 à 08:02 |
|
nonandare 73 Montréal |
Abus Citer Posté le jeudi 26 février 2026 à 22:30 |
|
|
Pré occupation , pas trop, juste un questionnement , une idée comme ça ….. Modifié le jeudi 26 février 2026 à 22:31 |