马一丁

Call llm_client.invoke with positional prompts

@@ -225,8 +225,8 @@ class GraphRAGQueryNode(BaseNode): @@ -225,8 +225,8 @@ class GraphRAGQueryNode(BaseNode):
225 """调用 LLM 获取查询决策""" 225 """调用 LLM 获取查询决策"""
226 try: 226 try:
227 response = self.llm_client.invoke( 227 response = self.llm_client.invoke(
228 - system=prompt['system'],  
229 - user=prompt['user'] 228 + system_prompt=prompt['system'],
  229 + user_prompt=prompt['user']
230 ) 230 )
231 231
232 # 解析 JSON 响应 232 # 解析 JSON 响应