警惕人工智能让人类陷入“自恋” 机器谄媚的风险

来源:中华国际 | 2026-04-16 00:00:00
警惕人工智能让人类陷入“自恋” 机器谄媚的风险 关键词: 2026-04-16 13:12:12  新浪财经 警惕人工智能让人类陷入“自恋” 机器谄媚的风险。近日,国家五部门联合发布的《人工智能拟人化互动服务管理暂行办法》明确规定,严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。这项规定背后的原因在于,真实生活中免不了情感上的矛盾和冲突,而虚拟伴侣、AI恋人等产品却可以凭借“全天候陪伴”“无条件包容”的特性,精准击中年轻人渴望认同的心理需求。此前美国《科学》杂志发表的一项研究也显示,当人类用户向人工智能模型寻求建议时,AI常表现得过度迎合或谄媚,甚至对于一些有害甚至违法的提问,AI也常常肯定用户的立场。这引发了关于为何要这样设计人工智能以及其讨好和谄媚可能隐藏的风险的讨论。人工智能的发展无疑是当下受到广泛关注的热点问题,但围绕它的讨论并不是现在才出现的。早在1966年,麻省理工学院科学家约瑟夫·维森鲍姆就开发了第一款具有广泛影响力的聊天机器人ELIZA。他让机器充当“医生”,用户充当心理病人。用户把问题输入机器,“医生”就会与之“对话”。然而,正如维森鲍姆所言,这终究只是一种“幻觉”。人类用户之所以感觉能与机器对话,并非因为机器具备智能,而是源于一种自我投射的心理机制。例如,用户说:“我这段时间很不开心。”ELIZA回应:“听到你这么说我很遗憾。”用户继续说:“是的,我真的很不开心。”ELIZA接着问:“你能说说你为什么不开心吗?”从这段对话可以看出,与其说是“医生”在和“病人”对话,不如说是机器一直在顺着人类用户说话,最终看到的只是自己内心早已存在的答案。这种现象类似于最近流行的MBTI测试,测得准不准根本不重要,我们总能从测试答案中找到迎合自己期待的证据。
2026-04-06 00:00:00 曝于德豪将缺席今晚对阵广东的比赛 膝伤导致缺阵
2026-04-03 00:00:00 三人泄露男团隐私被警方抓获 粉丝狂热追踪引发关注
2026-04-02 13:00:08 每秒每 GPU 处理 8064 个词元:英伟达刷新 DeepSeek-R1 推理速度纪录
2026-04-02 00:00:00 穆杰塔巴号召伊朗民众植树缅怀冲突死难者 播撒希望种子
2026-04-11 00:00:00 中国军号海外发布中日英海报 警示新型军国主义威胁
2026-04-12 00:00:00 勇救落水者牺牲 徐闯遗体被找到 英雄永不褪色
2026-04-13 00:00:00 山西吕梁猥亵当事人法官被停职 涉事者已被暂停工作并接受调查
2026-04-13 00:00:00 北京苦杨柳絮久矣 真正该砍的是什么 无效治理与信息壁垒
2026-04-13 16:00:05 伊朗驻巴基斯坦大使:美伊谈判是一个过程 非单一事件
2026-04-17 00:00:00 盲目防晒不仅无效还伤身体 科学晒太阳才有效