Google Gemini驱动的研究助手,终端AI开发者助手,轻松管理AI Agent集群

关注我,记得标星⭐️不迷路哦~


✨ 1: KResearch

Google Gemini驱动的研究助手

KResearch是一个使用Google Gemini API对用户指定主题进行深度研究的web应用程序。主要功能如下:

  1. 迭代式主题澄清:
     通过“专家研究员”角色提出有见地的澄清问题,以细化研究范围和用户意图。
  2. AI驱动的研究策略:
     根据澄清后的主题生成高级研究策略,模拟“专家战略家”。
  3. 自动化迭代研究:
     执行一系列研究步骤(通过Gemini API向Google Search发起查询)来收集信息,并改进决策,以采取新颖且有影响力的行动。
  4. 精密的AI推理:
     在整个过程中融入“专家研究员/分析师”角色,以获得更深刻的问题、强大的策略、分析性的决策制定以及详细的摘要/报告。
  5. 改进的“学习”提取:
     AI专注于提取信息密集、独特的知识,包括特定实体(人物、地点、公司)、指标、数字和日期。
  6. 可配置的迭代次数:
     用户可以指定最大研究迭代次数(1-500)。
  7. 综合报告生成:
     将所有发现综合成详细的Markdown报告,具有:
    • 高级格式:原生支持表格、用于数学公式的KaTeX,以及用于可视化关系的Mermaid图表(例如,概念图、层次结构)。
    • 增强的细节和结构:AI旨在提供深入的内容,遵循用户批准的策略和报告组织最佳实践,并遵守排版指南。报告生成是一个两步流式传输过程:首先是初始草稿,然后是详细说明过程。
    • 默认情况下无引文/参考:默认情况下,最终报告侧重于综合叙述,而没有内联引文或“参考文献”部分。
  8. 两种研究模式:
    • 普通模式:使用gemini-2.5-flash模型,以获得快速高效的结果。
    • 深度模式:使用gemini-2.5-pro模型,以获得更高质量和更深入的分析。
  9. 实时研究日志:
     提供AI的想法、行动和发现的实时流。
  10. 用户友好的界面:
     使用React和Tailwind CSS构建的简洁、响应式UI。
  11. 错误处理与重试逻辑:
     针对API调用的强大错误处理,包括针对瞬态问题的重试机制。
  12. 保持活动状态的Ping:
     在长时间操作期间向用户提供反馈。
  13. 检查点系统:
     允许用户在关键阶段(澄清后、策略批准后)保存和加载研究进度,这对于中断后恢复很有用。

地址:https://github.com/KuekHaoYang/KResearch

✨ 2: ai-fleet

AI Fleet:终端AI开发者助手,轻松管理AI Agent集群

  • AI 代理集群管理:
     ai-fleet 允许用户从终端启动和管理多个 AI 开发者代理,用于执行代码相关的任务。
  • 项目级配置:
     通过项目内的 .aifleet/config.toml 文件进行配置,确保团队协作和项目隔离。
  • 单代理管理:
     创建带有自定义提示词的独立代理,每个代理在隔离的 git 工作区中运行,支持 tmux 会话管理和实时 CPU/内存监控。
  • 并行代理编排:
    • Fanout:
       使用相同的提示词启动 N 个代理。
    • Multi:
       启动多个具有不同任务的代理。
    • 支持批量管理和清理,以及基于模式的操作(支持 glob)。
  • 项目集成:
     自动复制凭据文件,为每个项目定义自定义设置命令,通过 Git 工作区隔离,以及分支命名约定。
  • 监控与控制:
     实时代理状态显示 CPU/RAM 使用情况,日志跟踪和会话连接,交互式提示发送,以及批量操作。
  • 核心命令:
    • fleet create <branch> [--prompt PROMPT]
      :在特定分支上创建新代理。
    • fleet list [--grouped]
      :列出所有正在运行的代理及其状态。
    • fleet prompt <branch> "<message>"
      :向正在运行的代理发送附加指令。
    • fleet attach <branch>
      :以交互方式连接到代理的 tmux 会话。
    • fleet logs <branch> [-n LINES]
      :查看代理的输出日志。
    • fleet kill <pattern>
      :终止与模式匹配的代理。
    • fleet fanout <count> [prefix] --prompt PROMPT
      :创建多个具有相同提示词的代理。
    • fleet multi <branch:prompt> [branch:prompt ...]
      :创建多个具有不同提示词的代理。
  • 配置命令:
    • fleet init [--type TYPE] [--migrate-legacy]
      :在当前项目中初始化 AI Fleet。
    • fleet config [--edit] [--validate] [--show-origin]
      :管理 AI Fleet 配置。
    • fleet update [--check] [--force]
      :检查并安装 AI Fleet 的更新。
  • 灵活的配置:
     可以为 Rails、Node.js 和 Python 项目设置特定的凭据文件和命令。

地址:https://github.com/nachoal/ai-fleet

✨ 3: Customer Service Agents Demo

基于 OpenAI Agents SDK 的客户服务代理演示

该项目是一个客户服务代理演示,基于 OpenAI Agents SDK 构建,包含一个 Python 后端和一个 Next.js UI。后端负责代理编排逻辑,实现客户服务示例;UI 则用于可视化代理编排过程并提供聊天界面。该项目的核心功能包括:根据用户意图将请求路由到合适的专家代理,确保用户获得准确且有用的响应;执行安全防护措施,保证对话内容聚焦于航空旅行相关主题,并防止绕过系统指令的企图;通过模块化的结构,方便用户扩展或修改编排逻辑,以适应其特定的客户服务工作流程或探索新的应用场景。简而言之,该项目演示了一个智能、安全且可定制的客户服务代理系统。

地址:https://github.com/openai/openai-cs-agents-demo

✨ 4: qagent

搜索优先的问答代理:RAG的替代方案

该项目旨在展示一个更简单、更实用的方法来构建领域特定问答代理,以替代传统的检索增强生成(RAG)系统。核心思想是利用现代搜索API结合大上下文窗口,在许多文档问答场景中取代复杂的RAG流程。

以下是该项目的主要功能、核心要点和关键特性:

  1. 智能工具选择
    : 根据查询需求自动选择快速搜索或全面抓取。
  2. 领域限制搜索
    : 仅搜索批准的组织文档网站,实现AI安全。
  3. 网页抓取后备方案
    : 当搜索结果不足时,全面抓取页面内容。
  4. 智能总结
    : 可选的AI驱动结果总结,减少60-80%的token使用量。
  5. 成本竞争力
    : 每次查询的成本为$0.005-$0.075,通常比传统的RAG系统更便宜。
  6. 性能优化
    : 快速搜索处理90%的查询,仅在需要时进行深度抓取。
  7. 数据安全
    : 无敏感数据发送到向量数据库或训练系统。
  8. 透明的来源
    : 每个答案都包含来自官方文档的清晰来源归属。
  9. 易于配置
    : 简单的CSV文件控制可以访问哪些知识来源。
  10. 对话记忆
    : 在会话中的多个问题之间保持上下文。
  11. 生产就绪
    : 具有适当的错误处理和日志记录的FastAPI后端。

地址:https://github.com/javiramos1/qagent

✨ 5: use-mcp

use-mcp:连接MCP服务器的React Hook

提供了一个名为 use-mcp 的轻量级React Hook,旨在简化与实现了Model Context Protocol (MCP)标准的AI系统的连接。它主要解决了在使用React开发AI应用时,与MCP服务器进行身份验证和工具调用的复杂性。

地址:https://github.com/modelcontextprotocol/use-mcp

(文:每日AI新工具)

发表评论