为什么单纯只使用大语言模型设计的配方不行?
一,幻觉。
这无法避免。这是大语言模型的Transformer架构的多头自注意力机制的特性决定的。比如,单纯只使用豆包来设计胃溃疡配方时,你会发现其生成的配方中经常会出现一个名为滑榆树皮粉(Slippery Elm)的成分,并声称其来源是北美红榆(Ulmus rubra)树皮。然而,在PubMed上你搜索不到Slippery Elm或Ulmus rubra与胃溃疡或胃酸有关的任何文献。
二,平庸。
单纯只使用大语言模型生成的配方非常平庸(有时完全无效)。因为大语言模型设计配方时,总是倾向于使用最常见且有些用(有时完全没用)的补充剂,而不会使用最有效但可能不太常见的补充剂。因为大语言模型给出答案是基于概率分布的。它在生成答案时,本质上是给出某个范围内概率最高的答案。首先,这个范围不是全局的;其次,该范围内概率最高的答案也并不意味着是该范围内的正确答案。一个简单的道理,人群中平庸的人总是占最大多数。
三,随机。
每次生成的配方都不一样。为了防止过拟合,提高泛化能力而不得不引入的随机性会导致每次生成的答案不一致。这使得针对完全相同的要求,每次生成的配方都不同,让人无所适从。
为什么大泽矩阵+大语言模型就能设计出顶级配方?
一,利用CNN+NLP+领域NLP,解决幻觉与随机。
与LLM相比,CNN+NLP+领域NLP的方案,能够更好地理解和处理专业术语、领域知识,减少通用模型导致的误解。与此同时,更具模块化和解释性,便于针对特定任务进行调整和优化,保持对模型决策过程的追踪,从而杜绝幻觉的产生。
相比于LLM的生成式方法,CNN+NLP+领域NLP的方案更依赖规则与统计模型,因此,生成的结果非常稳定。
二,通过自建配方池来滤掉平庸。
针对任何一种疾病或诉求,大泽矩阵会在全球超195万个物种与超10万种补充剂中,找出最有效的物种与补充剂。通过只将最有效的备选物种与备选补充剂放入自建配方池,完全不给大语言模型选择平庸的机会。一个简单的道理,如果你只在奥运冠军中进行选择,你不会得到水平差的运动员。