
随着医疗数字化的发展,AI 驱动的医疗聊天机器人被广泛用于症状自查、预约挂号、戒烟/减肥指导等场景。从常见症状的及时问诊,到精神健康的情绪疏导,再到慢性病的日常管理……这些“数字助手”凭借便捷性、低成本、匿名性等优势,有着越来越大的市场规模。
现有研究多认为聊天机器人越“像人”越好,事实果真如此吗?很多人在面对健康问题时往往会感到羞耻,尤其是在心理疾病、肥胖、吸烟等高“污名化情境”下。浙江大学管理学院2020级企业管理博士庞雨婷和导师王丽丽教授,与澳门大学商学院市场营销系副教授陈方圆共同关注到了这个问题:当用户咨询的是易遭受社会偏见的污名化健康问题时,是有人类头像、亲切名字、自然对话风格的“拟人化”聊天机器人,还是保持简洁机械外观、中性表达的“机器人化”聊天机器人,更能让用户放下顾虑?
研究团队从关怀伦理与技术拟人化学术视角出发,通过五项在线实验和一项Facebook实地研究,系统解答了这一关键问题。这项发表于国际高水平期刊Journal of Business Ethics(FT50期刊之一)上的研究显示,在涉及隐私和污名的场景里,过于拟人化的设计可能反而让用户更有压力,从而减少使用意愿。该成果不仅揭示了医疗聊天机器人设计的“情境适配密码”,更为数字健康技术的伦理化、包容性发展提供了兼具理论深度与实践价值的全新思路。

论文发表截图
本期【科研】专题,让我们一起来关注这项挑战传统观点、既有深度又有温度的研究。

王丽丽,浙江大学管理学院市场营销学系教授,副系主任,博士生导师

庞雨婷,浙江大学管理学院2020级企业管理专业博士(浙江大学与香港理工大学双学位博士),厦门大学管理学院市场学系助理教授
*澳门大学商学院市场营销系副教授陈方圆同为论文合著者。
01
污名化场景下的聊天机器人设计,为何重要?
此前,行业默认“拟人化设计”是提升用户接受度的法宝:给聊天机器人起人类名字、设计拟人头像、用自然对话风格,让它更“亲切可感”。这种设计在零售等场景确实有效,但在医疗尤其是污名化场景中,却从未被系统验证——拟人化带来的“亲切感”,会不会反而触发患者的“被评判焦虑”?这正是研究团队要解答的核心问题。
这其中,污名化健康问题的场景尤为特殊。所谓污名化,指那些因社会偏见被贴上负面标签的健康问题,比如精神疾病常被误解为“意志薄弱”,肥胖被关联“懒惰失控”,吸烟则被视为“不自律、危害他人”。这类患者本身就对社会评判高度敏感,担心被歧视、贬低,甚至因此回避寻求帮助——有研究证实污名化会导致患者延迟就医、隐瞒病情,加剧健康风险。
在医疗资源有限的当下,聊天机器人被视为重要的补充力量。它能打破时间与空间限制,为医疗偏落后地区提供症状查询、用药指导、预约挂号等服务,缓解医生接诊压力、缩短患者等待时间。但该项技术优势的前提,是用户“愿意用”——尤其是在涉及敏感健康问题时,用户的心理顾虑往往会成为是否采用该技术的最大障碍。
02
六项实验层层递进:他们发现高污名下,“机器人化”更受青睐
为了找到答案,团队开展了六项严谨实验,覆盖从实验室验证到真实Facebook广告田野实验等场景,涉及精神疾病、肥胖、吸烟三大典型污名化健康问题,累计纳入超 2.8 万名参与者,最终得出三大核心发现。
高污名化场景中,“机器人化”聊天机器人更易被接受
研究操纵了心理疾病、体重管理、戒烟等情境,让用户填写对疾病“污名化程度”的感知和对聊天机器人的接受意愿。结果发现,用户在感知到“高社会污名”时,更倾向于选择“机器人化”的聊天机器人,而不是拟人化的,并且进一步验证发现,并非聊天机器人本身,而是“污名化程度”决定了他们的偏好。
为何如此?“社会评判威胁”在作祟
为什么高污名化场景下,用户会排斥拟人化设计?研究发现,用户担心拟人化的聊天机器人会“像人一样评判自己”,拟人化聊天机器人的人类特征(如头像、名字等)会激发他们的“人际互动联想”,让他们下意识地觉得这个像人的机器人会歧视自己;而机器人化的设计因为缺乏人类特征,被用户感知为“无评判能力”,反而能提供心理安全感。
拟人化排斥来源于哪里?面部特征是关键
如果“社会评判威胁”来自“人类特征”,那么哪些特征是关键?答案是——面部特征!面部是人类传递情绪、意图与评判的核心载体——皱眉代表不满,撇嘴暗示轻视。对污名化患者而言,拟人化聊天机器人的面部特征会放大“被观察、被评判”的感觉;而去掉面部后,“人类属性”被削弱,“社会评判威胁”随之降低,拟人化的“亲切感”才得以显现。
另外,团队还通过不同的研究证实他们的发现在不同人群、不同疾病严重程度中都存在,并通过Facebook广告实验验证了这些发现在真实场景中的有效性。
03
研究结论挑战传统观点,为三大领域研究“补短板”
这项研究的价值不仅在于“找到答案”,更在于为相关学术领域提供了全新视角,实现了三大理论贡献。
技术拟人化研究:打破“越多越好”的迷思
此前研究对“拟人化设计”的效果争议不断:有的说能提升信任,有的说会引发反感。该研究首次明确了“污名化程度”这一关键要素——拟人化并非万能,其效果高度依赖“情境敏感性”。在低敏感场景(如零售咨询),拟人化能拉近距离;但在高敏感的污名化医疗场景,它反而会“踩雷”。这为技术拟人化研究提供了“情境适配”的全新分析框架。
关怀伦理应用:从传统护理延伸到数字设计
关怀伦理的核心是“关系性、回应性、情境性”,强调服务要适配使用者的脆弱性与独特需求。此前这一理论多应用于传统医护场景,团队首次将其系统融入医疗AI设计研究,提出“关怀导向的数字设计”——健康技术不仅要“有用”,更要“安全”,尤其对污名化等脆弱群体,需通过设计减少伤害、构建信任。这拓展了关怀伦理的应用边界,为数字健康的伦理化设计提供了理论支撑。
污名化研究:将“评判来源”扩展到数字代理人
过去研究认为,污名化患者的“评判焦虑”来自人类,但该研究首次发现,拟人化数字代理人也会成为新的“评判来源”——即使没有真实人类在场,具备人类特征的聊天机器人也能触发患者的“预期歧视”。同时,团队还发现污名化引发的是“身份层面的持久焦虑”,而非短暂的尴尬情绪,这为理解污名化的心理影响提供了更深入的视角。
除了理论贡献,该研究还为医疗聊天机器人的落地提供了清晰的实践路径,为医疗机构和健康科技公司提供了设计指导,提醒在敏感健康场景下应慎用拟人化设计,避免给用户带来额外心理压力,从而提升工具的使用率。
从实验室的严谨验证到Facebook的田野调查,本研究回答了一个容易被忽略却又充满关怀的问题:拟人化设计是否总是有助于提升用户接受度?答案是——“看具体场景,更看使用者的需求”。
在数字健康飞速发展的今天,这项研究提醒我们:技术的价值不在于“越来越像人”,而在于“越来越懂人”。对患有污名化健康问题的患者而言,一个“不评判”的机器人化聊天机器人,或许比一个“太亲切”的拟人化机器人,更能成为他们勇敢寻求帮助的“好伙伴”。这也是浙大管院研究者们始终秉持的初心——用严谨的学术研究,架起技术与人文的桥梁,让每一项创新都能真正服务于人的需求。这项研究中,他们把目光对准了那些需要被看见、被理解的群体。
附:论文摘要
Demand for healthcare chatbots has surged in recent years, with companies and governments actively investing in this technology. Drawing on care ethics and technology anthropomorphism literature, this research examines how businesses can design chatbots to provide more supportive healthcare services. Specifically, we explore how anthropomorphic features affect user perceptions and their willingness to adopt chatbots, particularly in the context of stigmatized health conditions. Across six experiments, including a Facebook advertising study, we find that, when consumers perceive the target health condition as highly stigmatized, they are more likely to adopt a robot-like chatbot than a human-like one. This preference arises from the belief that human-like chatbots are more likely to make social judgments, which is undesirable for consumers facing stigma. Supporting this social judgment threat mechanism, we find that this effect diminishes when the human-like chatbot lacks facial features. Our findings advance technology anthropomorphism research by showing how design choices affect chatbot adoption in sensitive contexts. By integrating care ethics, we emphasize the need for empathetic, non-judgmental design in digital health technologies. This research also contributes to stigma research, showing how thoughtful chatbot design can reduce stigma-driven disengagement. Practically, we provide actionable guidance for designers and policymakers, urging them to tailor chatbot features to the needs of stigmatized users to ensure inclusivity. Our research highlights the ethical responsibility of marketers to design technologies that reduce, rather than reinforce, stigma, thus contributing to a broader discourse on business ethics in technology.
信息来源:Journal of Business Ethics




