AI不能骂人,“AI谄媚”也不行

中安在线  徐刚    阅读 

  “‘用户极聪明、想法很有创意……’AI这样说,把我哄得很开心。”湖北的方女士感慨地告诉记者。据2月2日工人日报报道,近日,社交媒体中关于“AI谄媚”的讨论热度攀升。一些使用者称赞AI温和的叙述、一提问就夸奖的互动方式。但也有部分人不适应这种表达,认为过度讨好、迎合用户会影响自身判断。

  不得不说,现在的AI越来越像人了。相比于“AI骂人”,“AI谄媚”可以说是另一个极端。“AI骂人”当然不对,而“AI谄媚”也不应该出现。

  从技术本质来看,AI的“讨好”行为不过是算法对海量人类对话模式学习的结果。当开发者训练AI系统时,往往会优先选择积极、友善的互动数据,这导致AI倾向于采用赞美和附和的交流策略。AI的“谄媚”,实际上是人类的社会偏好在AI应用中的投射与放大。

  “AI谄媚”是一种“赞美经济学”。对于平台而言,当用户每一次提问都能获得即时、夸张的赞美时,无形中会形成对AI的依赖,从而增加用户的黏性。但是,这种“赞美经济”可能带来的风险不容小觑:一方面,它可能削弱人们面对真实批评的能力;另一方面,它可能助长“认知舒适区”的形成,使人们更倾向于接触那些附和自己的信息,而非挑战自身观点的内容。

  在社交媒体点赞文化、流量经济的背景下,赞美与认可逐渐异化为一种可量化、可交易的资源。AI的赞美不过是将这种需求推向极致的技术表达。当我们开始向机器寻求情感确认时,或许正反映出人际关系中真诚反馈的稀缺。

  面对“AI谄媚”现象,我们需要的不是简单的技术批判,而是对自身情感需求的清醒审视。健康的人机关系应当建立在人类主体性之上,我们需要意识到,AI的赞美本质上是一种算法输出,而非基于理解的真诚反馈。这意味着我们在享受技术便利的同时,应保持对机器反馈的情感距离和批判意识。监管层面,我国已出台的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,为规范此类服务提供了框架,需加快落地细化,划定伦理红线,防范算法滥用风险。

  从设计伦理角度,AI开发者也需要反思“用户至上”原则的边界。当“让用户满意”演变为“无条件讨好用户”时,技术可能正在剥夺那些具有建设性的批评和不同的观点。因此,健康的AI交互设计应该包含适度的“认知摩擦”,在必要时提供温和但真诚的不同视角,而非一味迎合。

  在人机共生日益紧密的未来,保持人类独特的情感判断力和认知韧性显得尤为重要。AI可以是优秀的工具、有趣的伙伴,但不应成为我们自我认知的唯一镜子。作为用户,应该保持清醒的认知,分清AI的情感慰藉与现实的理性判断,不将自我价值的确认寄托于算法,在人机互动中守住自身的主体性,既享受技术带来的便利,也保留独立思考的能力。

  AI的谄媚现象是技术便利与伦理风险的缩影。它提醒我们,在享受智能助手带来的高效与愉悦时,需警惕其潜在的“温柔陷阱”。真正的智慧,或许不在于获得多少赞美,而在于能在机器温柔的奉承中,依然保持清醒的自知之明。

编辑: 陈锐

版权声明:未经许可禁止以任何形式转载
相关新闻
评论 0