健康热词:

您当前的位置 : 杭州网健康>热点关注>
“AI+医疗”:便捷与风险并存
发布时间:2024-08-05 09:29:55 星期一   法治日报

线上购药本末倒置

审核环节形同虚设

除了“AI+医疗”作为一种新兴模式在实际应用过程中可能存在一定法律风险外,一些线上医疗问诊、线上购药平台在引入AI辅助后,虽然给患者带来便捷,但也暴露出不少问题。

记者在调查中发现,一些互联网医疗平台采用“先选购药品,再因药配方,甚至由人工智能软件自动生成处方”这样本末倒置的操作方式。

记者前不久在某购药平台下单处方药骨化三醇软胶囊后,平台提示“请选择线下已确诊疾病”。记者在“疾病栏”随机勾选了几项,“处方/病历/检查报告栏”空着,并确认“已确诊此疾病并使用过该药,且无过敏史、无相关禁忌证和不良反应”,很快便通过了验证,提交清单后,系统跳至问诊版块。

紧接着,有“医师”接诊,连续发来数条信息,其中第一条强调“互联网医院只对复诊用户提供医疗服务”,后续几条信息均为确认有无过敏史或处于特殊时期。在记者没有回复的情况下,对方就发来一张处方单和购买链接。

北京市民杨木(化名)也有过类似经历,他怀疑屏幕背后接诊的不是真的执业医师:“在××平台购买处方药时,感觉对方跟机器人没有差别,只要打字过去,对方就会在几秒钟内迅速同意,根本没有给出任何专业意见。”有一次,他故意描述一些不是欲购药品适应病症的情况,结果对方仍然很快开了处方。

多名业内人士认为,“隔空”诊疗并不适合所有患者,常见病、慢性病的复诊,是较长时间以来互联网诊疗的定位。不过,对于何为复诊,业内一直缺少具体标准,导致出现一些监管真空。

“假如是正规互联网医院,有执业资格的医生开具的电子处方,应该有医生的签名、互联网医院电子章。不排除有些小型互联网医疗平台存在用人工智能、机器人等工具自动生成处方,一些大平台会用AI等来辅助医生问诊,比如问病人几岁、哪里不舒服等,但是处方必须要求医生来开。”北京某三甲医院一刘姓医生说。

他还注意到,不少平台为谋取利益,采用“AI开处方,客户直接取药”的模式,处方开具、审核环节形同虚设,要么直接跳过开具处方这一流程,要么对用户上传的处方并不实际审核,这类行为严重违反了我国药品管理制度,也给患者用药安全埋下风险隐患。

在线上健康平台咨询问诊会不会泄露个人信息,也是多名受访患者提出的疑问。

有一次,杨木的后背上起了不少红疹子,便在某健康平台进行问诊,结果没过几天,他就陆续接到多个广告电话和短信,有询问是否需要植发的、有推销护肤产品的,甚至还有借贷公司打来的推销电话。

“问诊时,平台采集的个人信息和健康情况能不能保存好,这些信息会不会流向第三方?”杨木很是担心。

此前,工信部曾通报过多个互联网医疗App在个人信息收集及使用方面存在严重问题,包括超范围采集个人隐私信息、未经本人同意向他人提供个人信息、收集与医疗服务无关的个人信息等。

“与其他类型App相比,医疗类App泄露个人信息可能会导致更严重的法律问题。如果个人健康信息被泄露,不法分子可能利用这些信息实施精准诈骗,比如利用‘病急乱投医’的心理向患者非法售卖或推广药品。”前述刘医生说。

完善相关法律框架

切实保障患者权益

受访专家指出,为了有效应对“AI+医疗”在实际应用中潜在的法律风险,需要从法律和政策两个层面进行系统化完善。只有建立健全法律框架和监管机制,明确医疗大模型的责任归属和数据使用规范,才能在推动医疗人工智能发展的同时,切实保障患者的合法权益。

“首先要建立完善医疗人工智能法律框架。目前,《生成式人工智能服务管理暂行办法》未涉及医疗领域人工智能规定,需要在其基础上结合医疗领域的特点制定相关法律法规,突出强调医疗人工智能的辅助作用。”陈川说,为了帮助医疗工作人员、患者更好地使用人工智能系统、了解人工智能得出诊断结果的运行机制,我国可以配套制定医疗人工智能使用指南,以增强医疗人工智能系统及其结果的可解释性;还需完善其他法律规定,数据安全法、《涉及人的生命科学和医学研究伦理审查办法》等为制定医疗人工智能管理办法提供了基础,应依据人工智能发展现状出台适用医疗人工智能的管理办法。

陈川还提到,强化医疗人工智能算法监管刻不容缓。一方面,为确保医疗人工智能的安全性和可靠性,应成立算法审查专门机构,对医疗人工智能进行严格的安全性、透明性、伦理性审查;另一方面,基于数据的动态性和人工智能技术的不断迭代升级,应要求研发者提前研判算法应用过程中产生的安全风险并提出针对性应对措施,在算法生命周期内定期开展算法风险监测工作,针对算法的数据使用、应用场景、影响效果等进行自我安全评估。此外,可开启公众监督举报、监管部门巡查等多种措施。

北京中医药大学法律系教授邓勇也认为,随着医疗大模型的发展,这一产业合规运营与监管显得越发重要,需要确定自身的产品定位并获取对应的资质,避免无资质开展相应活动。“合规方面,首要应当确定自身的产品定位,如属于互联网诊疗产品的,需要联系或建立对应的实体医疗机构并申请设置相应的互联网医院,并在医师资源、病历管理、药品配送、处方开具上满足相应要求,如仅作健康管理,不涉及诊疗活动的,必须明确自身产品不具有‘医疗目的’,仅‘预期用于健康管理、目标人群为健康人群、记录统计健康信息’用。”

他提出,还应当采取数据清洗等方式确保去除公开数据中的违法和不良信息及个人信息,保证训练数据合法合规。医疗大模型收集用户数据的要求,需要遵循合法、正当、必要的原则,不收集与所提供服务无关的个人信息。

“医疗大模型收集用户数据的红线行为包括:未公开收集使用规则;未明示收集使用个人信息的目的、方式和范围;未经用户同意收集使用个人信息;违反必要原则,收集与其提供的服务无关的个人信息;未经同意向他人提供个人信息;未按法律规定提供删除或更正个人信息功能或未公布投诉、举报方式等信息。”邓勇说,收集互联网公开数据时,为确保其合法合规,还需要履行告知同意程序、匿名化程序、提供拒绝渠道等操作。此外,应当注重数据标注机制,通过标注防止生成色情暴力、歧视性信息等违法和不良内容,实现内容安全。

针对线上医疗问诊暴露出的问题,陈川认为,亟须明确人工智能的法律责任,建立科学合理的责任分配机制,强化医务人员的主体责任,明确AI处于辅助性地位,细化各领域参与者的责任,不能将医疗诊断彻底交给AI,应遵循“事前预防—事中监控—事后问责”的原则。“医务人员在行医过程中须履行注意义务,即医务人员须注意识别和鉴定AI诊断结果,否则应当承担责任。”

来源:法治日报    作者:记者 文丽娟 实习生 张广龙    编辑:陈俊男

 

此前,工信部曾通报过多个互联网医疗App在个人信息收集及使用方面存在严重问题,包括超范围采集个人隐私信息、未经本人同意向他人提供个人信息、收集与医疗服务无关的个人信息等。不排除有些小型互联网医疗平台存在用人工智能、机器人等工具自动生成处方,一些大平台会用AI等来辅助医生问诊,比如问病人几岁、哪里不舒服等,但是处方必须要求医生来开。多名业内人士和专家在接受《法治日报》记者采访时指出,医疗领域已经成为探索AI应用的重要场所,目前在一些医院主要应用于分导诊、预问诊、病历生成等场景,助力患者就医更加便捷,提升了医疗服务质量,未来AI辅助诊疗将会成为一种趋势,但也需要警惕背后隐藏的法律风险,这些风险不仅涉及患者个人隐私保护,还关系到算法透明度和公平性等问题。