在开放环境中实现鲁棒的假设生成是人工智能认知的关键。文章提出了一种结合多智能体系统(基于大型语言模型LLM)与归纳逻辑编程(ILP)的新框架。系统中的LLM智能体能够直接从原始文本数据中自主定义结构化符号词汇(谓词)和关系模板(即“语言偏见”)。这种传统上依赖专家定义的ILP瓶颈问题——符号基础的自动化构建,随后引导文本转化为ILP求解器可用的事实,从而归纳出可解释的规则。该方法克服了传统ILP对预定义符号结构的依赖以及纯LLM方法的噪声敏感性。在多样化挑战性场景下的实验验证了其优越性能,为自动化、可解释且可验证的假设生成开辟了新路径。
假设生成——从碎片化观察中形成系统性解释并通过迭代验证的过程——在人工智能发展中具有核心作用。这种“生成-筛选”范式不仅是科学发现的基础,也应用于实际AI任务(如从错误日志诊断软件缺陷根因)。在开放环境或高风险领域(如医疗诊断和金融决策)中,持续生成和验证假设的能力对构建鲁棒AI系统至关重要。
在一阶逻辑(FOL)中,谓词用于描述对象或对象间关系。例如:一元谓词isRed(x)表示“x是红色”,二元谓词parent(x,y)表示“x是y的父母”。实例化的谓词称为原子,若原子为真则称为事实。基于此,推理规则可表示为Horn子句,例如:ancestor(x,z) ← parent(x,y) ∧ parent(y,z)。
传统ILP方法依赖专家定义的“语言偏见”来限制假设搜索空间。与以往研究不同,本文首次利用LLM自动化生成语言偏见本身,包括谓词系统和结构约束。
现有方法(如HypoGeniC、Iterative Hypothesis Refinement)虽具有通用性,但存在噪声敏感性和启发式生成导致的规则集次优问题。本文通过LLM与ILP的协同,结合神经与符号推理的优势。
通过Actor-Critic多智能体协作迭代生成谓词系统:
将自然语言样本转换为Prolog事实,例如将“Shoe_001是黑色正装皮鞋”映射为:black(shoe_001), formal_shoes(shoe_001), leather(shoe_001).
使用MAXSYNTH求解器基于MDL原则学习最优规则集,例如:suitable_for_business(A) ← expensive(A) ∧ formal_shoes(A).
使用合成数据集SHOES(商务鞋分类)和ZENDO(多对象逻辑推理),基线方法包括HypoGeniC和迭代假设精炼(IHR)。
| 变量 | 描述 |
|---|---|
| 规则数量 | 1-3条逻辑规则组合 |
| 模板多样性 | 1-3种自然语言模板 |
| 样本量 | 50/100/200样本 |
| 类别平衡 | 正样本比例20%-50% |
| 噪声比例 | 标签翻转率0%-20% |
主要结论:
本文提出的框架通过LLM与ILP的协同,实现了从非结构化文本到可验证假设的端到端自动化流程。未来将扩展至药物相互作用分析等科学假设生成场景。