医疗自诊依赖 AI 聊天机器人存风险,专家呼吁谨慎使用
5 月 6 日消息,在医疗资源紧张、等待时间长、成本不断攀升的背景下,越来越多的人开始借助像 ChatGPT 这样的人工智能聊天机器人来进行医疗自诊。据一项最新调查显示,大约六分之一的美国成年人每月至少会使用一次聊天机器人获取健康建议。
然而,过度信任聊天机器人的输出结果可能会带来风险。最近一项由牛津大学主导的研究指出,人们在向聊天机器人提供信息时,往往难以提供能够获得最佳健康建议的关键信息。
“研究揭示了双向沟通的障碍。”牛津互联网研究所研究生项目主任、该研究的共同作者亚当・马赫迪(Adam Mahdi)在接受 TechCrunch 采访时表示,“使用聊天机器人的人并没有比依靠传统方法(如在线搜索或自己的判断)的人做出更好的决策。”
据了解,为了开展这项研究,研究人员招募了大约 1300 名英国参与者,并向他们提供了由一组医生编写的医疗场景。参与者需要在这些场景中识别潜在的健康状况,并使用聊天机器人以及他们自己的方法来确定可能的行动方案(例如,去看医生或去医院)。
在研究中,参与者使用了为 ChatGPT 提供支持的默认人工智能模型 GPT-4o,以及 Cohere 的 Command R 和 Meta 的 Llama 3。研究结果显示,聊天机器人不仅使参与者更难识别相关的健康状况,还让他们更有可能低估自己所识别出的健康状况的严重程度。
马赫迪指出,参与者在向聊天机器人提问时常常遗漏关键细节,或者收到难以解读的答案。“他们从聊天机器人那里得到的回答常常是好坏参半的建议。”他补充道,“目前对聊天机器人的评估方法并没有反映出与人类用户互动的复杂性。”
与此同时,科技公司正不断推动将人工智能作为改善健康状况的一种手段。据报道,苹果正在开发一款能够提供与运动、饮食和睡眠相关建议的人工智能工具;亚马逊正在探索一种基于人工智能的方法,用于分析医疗数据库中的“健康社会决定因素”;微软则在协助构建人工智能,以对患者发送给护理提供者的消息进行初步分类。
但无论是专业人士还是患者,对于人工智能是否已准备好用于高风险健康应用都存在分歧。美国医学协会建议医生不要使用 ChatGPT 等聊天机器人协助临床决策,而包括 OpenAI 在内的主要人工智能公司也警告不要根据聊天机器人的输出结果进行诊断。
“我们建议在做出医疗决策时依赖可信的信息来源。”马赫迪表示,“就像新药物的临床试验一样,在部署聊天机器人系统之前,应该先在现实世界中进行测试。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。