AI能否拯救实验动物——“生成AI药物开发”有望减少30%至50%的实验鼠

AI能否拯救实验动物——“生成AI药物开发”有望减少30%至50%的实验鼠

AI能否拯救实验动物——“生成AI药物研发”减少30-50%小鼠的现实可能性

在新药开发的现场,长期以来存在一个无法回避的问题。
“能否在尽量不使用动物的情况下,获得可靠的科学结果?”

从伦理的角度来看,实验中使用的动物越少越好。然而,从科学的角度来看,过少的实验容易受到偶然性波动的影响。要判断药物候选物质是否真正有效,还是仅仅看起来有效,安全性和有效性评估需要足够的数据。

为了解决这一困境,出现了利用生成AI进行挑战的研究。德国法兰克福歌德大学和马尔堡菲利普大学,以及弗劳恩霍夫ITMP参与的研究团队开发了一种名为“genESOM”的生成AI。其目标是在减少用于临床前研究的实验动物,特别是小鼠数量的同时,保持研究结果的可靠性。

据发布,genESOM在探索性药理研究中有可能将动物数量减少30-50%。这不仅仅是效率提升的问题。如果实用化推进,将对新药开发的成本、研究伦理、动物福利以及围绕AI的科学利用的讨论产生重大影响。


“AI不是替代动物实验,而是补充少量实验”

此次研究的重要之处在于,genESOM并不是完全替代动物实验的技术。

生成AI这个词容易让人联想到生成文本或图像的AI。然而,genESOM生成的不是文本或图像,而是具有实验数据性质的新数据点。研究人员让AI学习已经获得的小鼠实验数据,并掌握其内部结构。然后,尽管实际上没有使用额外的动物,却生成了看似从更多动物中获得的数据。

例如,假设有一种药效模式需要使用26只小鼠进行确认。如果仅凭18只数据就失去了统计显著性,genESOM可以通过学习这些数据结构,在适当范围内生成附加数据,从而重现接近原实验的分析结果。

这与其说是“增加”实验室中不存在的虚构小鼠,不如说是AI仔细读取已观察到的实验结果结构,并补充被认为在此范围内合理的附加测量值。

然而,这里有一个重要的注意点。AI生成的数据是从实际实验数据中学习而来的。如果最初的实验数据过少或存在偏差,AI可能会放大这些偏差或偶然噪声。因此,genESOM不应被视为“使实验不必要的魔法”,而应被视为“在足够的实际数据前提下,扩大减少动物数量的余地的技术”。


研究的关键在于“不过多增加错误”的机制

在将生成AI用于科学研究时,最可怕的问题之一是“看似合理的错误”。

在文本生成AI中,可能会自信地谈论不存在的论文或事实。在实验数据生成中,同样存在生成看似自然但实际上在科学上没有意义的数据的危险。特别是,如果不仅增加研究中真正想知道的信号,还增加了偶然波动,本来不应该有效的变量可能看起来很重要。

这一问题被称为“错误膨胀”。简单来说,就是AI增加数据的同时,误差也随之膨胀的现象。

genESOM的特点在于其内置了监控错误膨胀的机制。研究团队将AI学习数据结构的阶段与生成新数据的阶段分开。并在生成过程中加入人工错误信号,以便测量这些错误的扩散程度。

通过这一机制,可以在AI生成过多数据而损害科学合理性之前,做出停止生成的判断。换句话说,genESOM不仅是“增加数据的AI”,也是“监控数据增加到何种程度的AI”。

这一点在考虑减少动物实验时尤为重要。即使有减少动物数量的伦理目标,如果因此在科学上做出错误的药效判断,最终也会对人类临床试验和患者造成风险。动物福利和科学信任性不是可以牺牲其中一方的关系,而是必须兼顾的。


从18只小鼠接近26只实验结果

研究团队使用过去进行的多发性硬化症模型的临床前研究数据,验证了genESOM的实力。

在原始研究中,26只小鼠被分为三组,研究实验药物的效果。研究团队故意将这些数据减少到18只,即每组6只,模拟“如果从一开始就用较少的动物进行实验会怎样”。

结果显示,仅凭18只数据,原研究中观察到的治疗效果消失了。统计检验未显示显著差异,即使使用机器学习也无法很好地区分治疗组的差异。这是少数样本研究中常见的问题。即使效果存在,由于数据量少而无法检测到。

于是使用genESOM,从18只的实际数据生成附加数据。结果,原26只实验中确认的效果再次以接近原显著水平的形式出现。而且,没有明显增加误判无意义变量为重要的假阳性。

据研究团队称,其他复杂的深度学习模型也进行了尝试,但在这种情况下,效果不如genESOM。这表明,科学数据的补充并非仅仅使用大而复杂的AI即可。小规模生物医学数据需要为处理小规模数据的结构和误差而设计。


减少动物实验符合“3R”原则

围绕动物实验的国际讨论中,长期以来“3R”原则被重视。
即Replacement、Reduction、Refinement三者。

Replacement是指用不使用动物的方法替代。
Reduction是指减少使用的动物数量。
Refinement是指改善实验方法以尽量减少动物的痛苦。

此次的genESOM技术与Reduction密切相关。虽然不是完全废除动物实验,但可能减少实现相同科学目的所需的动物数量。

这一立场也是现实的。近年来,类器官、器官芯片、计算机模拟、使用人源细胞的试验等替代和补充动物实验的技术迅速发展。然而,药物开发的所有阶段并不能立即在没有动物的情况下进行。在评估生物体整体的免疫反应、代谢、神经系统影响等复杂相互作用的场合,动物模型仍在使用。

正因为如此,现阶段需要的不是“全有或全无”,而是“使必要的实验更少、更精确”的技术。genESOM位于这一现实的中间地带。


社交媒体上的反应——期待、怀疑和伦理

由于这则新闻刚刚发布,社交媒体上的反应还比较有限,Phys.org上的分享数量较少,评论区也没有太大动静。

不过,这个主题容易在社交媒体上引发讨论。因为“AI”“动物实验”“药物研发”“伦理”这些关键词同时触及情感和科学。

首先会出现欢迎的声音。
“如果能减少实验动物,那就太好了”
“作为AI的用途,这是一个相当好的方向”
“如果能兼顾动物福利和研究,那我支持”
这样的反应是自然的。生成AI常因版权问题、就业影响、虚假信息等受到批评。在这种情况下,减少动物牺牲的可能用途相对容易被积极接受。

另一方面,谨慎的声音也会出现。
“可以将AI生成的数据视为实验结果吗?”
“AI是否有可能补强了有利的结果?”
“制药公司是否会将其作为削减成本的借口?”
这些担忧也是合理的。AI生成的数据并不等同于现实。无论多么巧妙地生成,也应与实验直接观测到的数据区分开来。在研究论文或监管审查中,必须明确说明合成数据是如何生成的,以及在哪个范围内使用。

此外,反对动物实验的立场可能会认为“减少30-50%是不够的”。对于关注动物痛苦的人来说,减少是进步,但最终目标是完全替代。相反,从研究人员和医疗从业者的角度来看,“如果过于追求减少动物数量,药物的安全性评估是否会变得宽松”也是一个可能出现的担忧。

这则新闻的有趣之处在于,它不仅仅是“AI很厉害”那么简单。AI可能会拯救动物。然而,AI也可能将错误的自信带入科学。因此,不仅技术本身,操作规则、透明性、监管、研究伦理也同时受到质疑。


“AI生成的数据”可信度有多高

生成AI的数据补充在医疗和生物学领域已经受到关注。患者数据受隐私限制较大,罕见疾病本身的病例数较少。在临床前研究中,由于成本和伦理原因,无法轻易创建大型数据集。

因此,从少量数据中学习,并在统计上合理的范围内生成辅助数据的技术有很大需求。然而,这里需要问的是,“数据看起来增加了”和“知识增加了”并不相同。

即使数据点从100个增加到200个,如果这些附加部分没有正确反映现实世界的现象,研究的可信度不会提高。相反,表面上的精度提高,可能会对错误的结论产生自信。

genESOM被评价的关键在于,研究团队正面处理了这一危险。错误监控、停止标准、假阳性抑制等机制是意识到合成数据利用弱点的设计。如果要将AI引入科学,“能生成”不如“不过度生成”更为重要。


对制药研究的影响

如果像genESOM这样的技术被广泛使用,临床前研究的设计可能会发生变化。

首先,可以在探索性研究的初期阶段减少所需的动物数量。在药物候选物质较多的阶段,无法对所有候选物进行大规模动物实验。如果可以通过AI补充少量实验数据并筛选出有前景的候选物,研究效率将提高。

其次,过去积累的实验数据的价值将提高。由于genESOM从实际数据中学习,高质量的过去数据将变得重要。研究机构和企业将更有动力整理数据,并以可再利用的形式进行管理。

第三,与监管机构的关系将变得重要。AI生成的数据在临床前评估中可以使用到何种程度。在哪个阶段将其视为辅助资料,在哪个阶段需要通过实验重新确认。在药物开发中,科学合理性和监管可接受性是实用化的关键。

特别是在决定是否进入人类临床试验时,难以想象仅依赖AI生成的数据。相反,短期内更可能用于实验计划的优化、探索性分析、附加实验的优先级排序等领域。


不可误解的三点

阅读这则新闻时,容易误解的三点。

第一点是,“AI使动物实验不再必要”的误解。此次技术并不是在没有实际数据的情况下生成结果。相反,前提是存在足够的实际获得的数据。

第二点是,“增加数据必然提高精度”的误解。过多生成数据可能会放大偶然噪声和误差,导致科学上没有意义的结果。genESOM的价值在于其设计中有制动机制。

第三点是,“减少动物数量与安全性评估对立”的简单化。适当设计的AI辅助反而可能从少量实验中提取更多见解,减少不必要的实验和重复实验。然而,为此需要透明性和验证。


生成AI的评价标准开始改变

生成AI迄今为止常被视为“替代人类工作的技术”,如写作、绘画、编程。然而,此次研究展示了生成AI的另一面。

那就是,“从现实世界有限的数据中更谨慎地提取知识的技术”。

当然,这里也存在风险。如果过于信任AI生成的数据,科学将变得危险。然而,如果能内置防止过度信任的机制,生成AI也可能成为推进研究伦理的工具。在减少动物实验的同时,更有效地评估药物候选物质。这是AI利用中社会意义较为明显的领域。

如果这则新闻在社交媒体上广泛传播,意见将会分裂。
“如果AI能拯救动物,那就欢迎”这样的声音。
“用合成数据做出与生命相关的判断是否合适”这样的声音。
“应推进到完全废除动物实验”这样的声音。
“首先需要验证和监管”这样的声音。

这些都触及了这项技术的重要方面。

genESOM展示的不是简单的减少动物实验的未来。而是从少量实验中,如何更准确、更负责任地提取知识。AI开始参与这一问题。

在新药开发的实验室中,AI不会立即取代小鼠。然而,它可能有助于减少所需的小鼠数量,避免不必要的实验,并提高研究的伦理性。

生成AI的价值不仅在于生成华丽的文本或图像。
在看不见的地方,让实验室的实验计划稍微聪明一些,减少使用的生命数量。
如果朝这个方向发展,AI可能成为填补科学与伦理之间长期鸿沟的现实工具。



来源URL

Phys.org的文章。参考genESOM的概述、减少