当ChatGPT在2022年底横空出世,仅用两个月就吸引1亿用户时,人们意识到,生成式人工智能(GenAI)正以前所未有的速度重塑世界。近日,学术出版巨头爱思唯尔(Elsevier)发布《2024年人工智能态度洞察报告》,基于对全球123个国家近3000名科研人员和临床医生的调查,揭示了这一群体对AI技术的真实看法——他们既期待AI成为工作助手,又对其伦理、准确性和透明度充满顾虑。
报告显示,AI的知名度已渗透到科研和医疗领域的方方面面。96%的受访者表示听说过AI(包括生成式AI),其中ChatGPT以89%的认知度成为最广为人知的AI工具,远超谷歌Bard(40%)、必应聊天(39%)等同类产品。不过,熟悉度与使用率之间存在明显落差:仅11%的人表示非常熟悉AI(即频繁使用),54%的人尝试过AI工具,而真正将其用于工作的比例为31%。
这种落差在不同地区呈现差异。中国有39%的受访者在工作中使用AI,高于美国(30%)和印度(22%);亚太地区整体对AI的熟悉度(13%)也高于欧洲(8%)。而阻碍使用的头号原因是没时间研究(49%),其次是缺乏访问权限(26%)和找不到合适工具(25%)。
值得注意的是,专业角色也影kaiyun体育全站 Kaiyun登录网页响使用习惯。科研人员比临床医生更常使用AI:37%的研究者将AI用于工作,而医生和护士的这一比例为26%。在具体工具上,25%的受访者用过ChatGPT处理工作,而微软Office套件中的Copilot功能使用率仅为4%,反映出通用AI工具比专业场景工具更易普及。
尽管使用尚未普及,多数受访者对AI的未来充满期待。95%认为AI将加速知识发现,94%相信它能增加学术和医学研究的数量,92%期待它为机构节省成本。在医疗领域,95%的临床工作者认可AI在诊断、患者总结等环节的价值;在科研领域,94%的研究者希望AI能辅助回顾过往研究、发现知识空白并生成新假设。
这种期待背后,是对效率提升的迫切需求。85%的受访者认为AI能解放时间用于更高价值的工作。例如,医生们希望AI自动处理病历文书,研究者期待AI辅助数据分析,从而将精力集中在创造性工作上。微软2023年的报告显示,68%的职场人缺乏不受干扰的专注时间,62%因查找信息耗时过多而困扰,AI被视为解决这些问题的潜在方案。
但乐观情绪中夹杂着清醒。42%的受访者将无法替代人类创造力、判断力和同理心列为AI的首要缺点。临床医生对此感受更深:45%的医生和护士认为,医患沟通中不可替代的人文关怀是AI难以企及的。此外,86%的人担忧AI会导致严重错误或事故,81%担心它会削弱人类的批判性思维,82%的医生尤其害怕同行过度依赖AI做临床决策。
虚假信息是另一大隐忧。94%的受访者认为AI可能被用于制造虚假信息,而AI生成内容的幻觉(即无依据的错误输出)问题加剧了这种担忧。谷歌CEO桑达尔·皮查伊曾坦言,所有AI模型都存在幻觉问题,目前尚无彻底解决方案,这在医疗、法律等领域可能造成严重后果。
报告指出,建立对AI的信任需要多重努力。58%的受访者认为,训练模型确保事实准确、符合道德且无害是增强信任的关键;57%强调仅使用高质量的同行评审内容训练模型的重要性;56%则看重默认标注引用来源的透明度。
具体来看,信息时效性被列为提升使用舒适度的首要因素。研究者和医生需要确保AI的训练数据是最新的——在医学领域,过时的诊疗指南可能危及患者安全;在科研领域,基于旧数据的结论可能误导研究方向。此外,71%的人期待AI工具的结果仅基于高质量、可信的来源,这对依赖AI进行决策的专业场景尤为重要。
隐私和安全同样不可忽视。55%的受访者认为保证输入信息的保密性会显著提升信任,27%的人提到所在机构禁止向公共AI平台上传机密信息。在医疗领域,患者数据的敏感性使得AI工具的隐私保护能力成为核心考量。
为推动AI在专业领域的良性发展,报告对开发者和机构提出了具体建议。对技术开发者而言,需优先提升准确性和可靠性,减少幻觉和偏见;增加透明度,明确标注AI功能并允许用户自主开关;强化安全与隐私保护,尤其在医疗数据处理上需超越基础法规要求。
对科研机构和医疗机构来说,首要任务是明确政策并有效沟通——目前44%的受访者不清楚所在机构如何准备应对AI,33%不了解AI使用限制。此外,需构建治理框架和专业团队,提供AI培训,确保不同地区、不同收入水平的机构都能公平获取AI工具。例如,中低收入国家对AI的期待(32%认为会带来变革)高于全球平均水平(25%),但预算限制(42%)阻碍了其普及。
总体而言,研究者和临床医生对AI的态度呈现谨慎乐观:他们认可技术潜力,却拒绝以牺牲伦理和准确性为代价。正如一位加拿大研究者所言:所有新兴技术都有优缺点,关键是通过发展和规范,最大化其益处。未来,AI能否真正融入科研和医疗的核心场景,或许就取决于这种平衡能否实现。