1. 项目概述一个为AI智能体赋能的OSINT技能模块如果你正在寻找一种系统化的方法让AI助手比如Claude Code、OpenClaw这类代码智能体能像专业调查员一样从互联网的公开信息中高效、准确地勾勒出一个人的数字画像那么smixs/osint-skill这个项目就是你需要的工具箱。它本质上不是一个独立的应用程序而是一个“技能包”一个可以被集成到各种AI智能体中的模块化指令集和脚本集合。它的核心目标非常明确将零散的、粗糙的公开信息OSINT收集过程转化为一个结构化的、可自动执行的智能情报流水线。想象一下你只需要给AI智能体一个名字或一个网络昵称它就能自动调用一系列工具从基础的搜索引擎查询到深入社交媒体平台抓取资料再到交叉验证信息、分析内容风格最终生成一份带有置信度评分、心理侧写和职业路径图的综合档案。这正是osint-skill试图解决的问题——它把原本需要人工在多个浏览器标签页、不同搜索语法和付费工具之间切换的繁琐工作封装成了一套AI可以理解和执行的标准化操作流程。无论是用于尽职调查、背景核查还是纯粹的个人数字足迹研究这个技能包都为AI智能体提供了从“知道要做什么”到“知道具体怎么做”的完整能力。2. 核心设计思路与架构解析2.1 分阶段情报流水线从“种子”到“档案”osint-skill最核心的设计理念是“分阶段、可升级”的研究流程。它没有试图用一个庞大的、单一的脚本去解决所有问题而是将整个调查过程拆解为七个逻辑严密的阶段Phase 0 到 Phase 6。这种设计模仿了专业情报分析的工作方法确保了研究的深度和广度可以按需控制同时也为成本预算管理提供了清晰的框架。Phase 0: 工具自检。这是所有工作的起点。在投入任何资源进行调查之前脚本会先运行diagnose.sh检查当前环境中所有必需和可选的工具如curl,jq,python3,node以及API密钥如 Perplexity, Apify是否就绪。这避免了调查进行到一半因缺少关键组件而失败是保证流程稳定性的基石。Phase 1: 种子信息收集。当获得一个目标名称或句柄后技能会启动first-volley.sh脚本。这个脚本的精妙之处在于“并行火力覆盖”。它不是顺序地调用一个个搜索引擎而是同时向 Brave Search、Perplexity Sonar、Tavily、Exa 等多个搜索API发起查询请求。这样做的目的是在最短时间内通常是几秒钟从不同数据源获取关于目标的初步、最广泛的线索集合形成一个丰富的“种子”信息池。Phase 1.5: 内部情报优先。这是一个非常关键且符合伦理与效率考量的设计。在转向外部公开网络深挖之前技能会优先检查“内部”资源。这包括检查本地的通讯录vault、历史邮件记录、或指定的Telegram聊天历史等。其逻辑是先从最高置信度、最相关的私有信息源入手用这些信息去指导和验证后续的公开搜索可以极大提升后续外部搜索的精准度和效率避免在无关的公开信息上浪费资源和时间。Phase 2: 平台专项提取。基于Phase 1收集到的线索例如发现了目标的LinkedIn个人资料链接、Instagram用户名等技能进入平台专项挖掘阶段。这是osint-skill能力最强大的部分之一它深度集成了超过55个Apify平台执行器Actor。这些执行器是预先配置好的、用于从特定网站如Instagram, Facebook, TikTok, YouTube, LinkedIn, Google Maps提取结构化数据的微服务。通过apify.sh和run-actor.sh脚本AI可以像调用函数一样轻松获取目标的社交媒体帖子、个人资料信息、关注列表、地理位置签到等深度数据。Phase 3: 信息交叉验证与置信度评分。收集到大量数据后最关键的一步是去伪存真。技能不会将所有信息平等对待而是引入了置信度评分系统A/B/C/D等级。一条信息如果被多个独立来源例如个人职业信息同时在LinkedIn个人资料、公司新闻稿和个人博客中被提及确认它会获得“A”级评分。如果信息仅来源于单一社交媒体帖子则可能被评为“C”级。这个评分过程不是简单的计数而是通过脚本对收集到的JSON数据进行比对、关联和分析来实现的最终为档案中的每一条“事实”附上可靠度标签。Phase 4: 心理侧写生成。在拥有足够多的文本内容如YouTube视频转录稿、博客文章、社交媒体发帖后技能可以尝试进行心理侧写分析。它参考了MBTI迈尔斯-布里格斯类型指标和Big Five大五人格模型的方法论通过分析语言模式、用词偏好、情感倾向和话题关注点生成一个推测性的心理特征描述。这并非临床诊断而是为了提供关于目标沟通风格、潜在动机或行为倾向的额外洞察维度。Phase 5: 完整性检查与深度评分。在生成最终档案前技能会执行一个“完整性检查”包含9个强制性检查点例如是否确认了全名、当前职业、至少一个有效的社交媒体账号等。同时它会根据已收集信息的广度、深度和来源质量计算一个1到10分的“深度评分”让使用者对本次调查的全面性有一个直观的了解。Phase 6: 档案输出。所有经过处理、验证和评分的信息会被填充到一个预设的Markdown模板assets/dossier-template.md中生成一份结构清晰、可直接阅读或分享的最终调查报告。2.2 “优雅降级”与成本控制机制另一个精妙的设计是“优雅降级”Graceful Degradation和分层预算控制。项目明确要求用户至少配置一个搜索API如免费的Brave Search即可开始使用。这意味着技能可以根据用户实际拥有的API密钥组合动态调整其能力范围。免费层仅使用Brave Search和有限的Apify免费额度可以进行基础的、广度优先的信息搜集。付费层加入Perplexity、Exa、Tavily等付费API后技能便能执行“深度研究”Deep Research进行语义搜索、公司关联查询等更复杂的操作。高级层配置Bright Data等服务后甚至可以绕过一些复杂的反爬机制如CAPTCHA、认证墙获取更难以触及的数据。与此配套的是四级研究升级Research Escalation机制快速回答使用最便宜/免费的API进行广谱查询成本近乎为零。来源验证对初步发现的关键链接使用Jina AI等工具进行页面内容提取和摘要约$0.01。社交媒体抓取调用Apify执行器抓取特定平台数据成本取决于平台复杂度和数据量$0.01 - $0.10。深度研究在关键问题上投入成本使用Perplexity Deep、Exa Deep等进行穿透式分析$0.05 - $0.50。更重要的是技能内置了预算跟踪逻辑。在自动执行过程中如果累计成本预计低于0.5美元AI可以自主决策并执行一旦可能超过这个阈值它就会暂停并请求用户授权。这种设计在赋予AI自主性的同时也给予了使用者明确的财务控制权避免了不可预知的费用产生。2.3 与AI智能体的无缝集成SKILL.md格式osint-skill的价值不仅仅在于其脚本本身更在于它采用了一种名为SKILL.md的标准化格式进行封装。这种格式被Claude Code、OpenClaw、Codex等多个主流AI编码智能体所支持。你可以简单地将整个osint文件夹复制到智能体的特定技能目录下AI就能立即“学会”并理解如何调用这一整套复杂的OSINT流程。这种设计实现了“工具与智能的分离”。复杂的脚本逻辑、API调用细节、错误处理都被封装在技能包中AI智能体无需从头学习每个API的用法只需根据SKILL.md中的自然语言描述和示例在合适的时机触发相应的脚本即可。这大大降低了为AI扩展复杂功能的门槛使得osint-skill可以作为一个即插即用的能力模块在任何兼容的AI工作环境中运行。3. 环境配置与核心工具链详解要让osint-skill真正运转起来一个正确配置的环境是关键。下面我将拆解每个必需和可选组件并解释其背后的作用与配置要点。3.1 基础工具栈脚本运行的基石项目对基础工具的要求非常明确它们大多是Unix/Linux环境下的标准工具或常见软件bash: 所有核心脚本.sh文件的解析器和执行环境。这是绝大多数Linux发行版和macOS的默认shell。curl: 用于发起HTTP请求的核心命令行工具是与所有外部REST APIPerplexity, Tavily, Exa等通信的桥梁。通常系统已预装。python3: 主要用于运行mcp-client.py这个轻量级的MCP模型上下文协议客户端用于与Bright Data等服务通信。同样普遍预装。jq:这是唯一一个很可能需要额外安装但至关重要的工具。它是一个强大的命令行JSON处理器。所有API返回的数据都是JSON格式jq用于从中精准地提取所需字段、进行格式转换和初步过滤。例如从Perplexity API返回的一大段JSON中用jq可以一行命令就提取出所有“答案”文本。在macOS上可通过brew install jq安装在Ubuntu/Debian上通过apt install jq安装。实操心得在运行diagnose.sh自检脚本前务必先确认jq已安装。很多脚本错误都源于JSON解析失败而根本原因就是jq命令未找到。你可以直接在终端输入jq --version来验证。3.2 核心引擎Node.js与Apify生态osint-skill最强大的数据抓取能力依赖于Apify平台而Apify的执行器Actor通常由Node.js编写和运行。因此Node.js 18: 这是运行run_actor.js这个嵌入式Apify运行器引擎的必需环境。这个JS文件是技能包自带的它封装了与Apify平台通信、启动任务、轮询状态、下载结果的完整逻辑。你需要从 nodejs.org 官网下载并安装LTS版本的Node.js。安装后可以通过node --version检查版本。Apify平台在这里扮演了“云服务化爬虫”的角色。你不需要自己编写和维护针对Instagram、TikTok等网站的爬虫Apify上已经有社区或官方维护的、持续更新的执行器。osint-skill通过run_actor.js和apify.sh脚本为你提供了调用这些云端爬虫的标准化接口。你只需要一个Apify API Token就可以按需调用这些服务。获取Apify API Token访问 Apify Console 并注册/登录。点击右上角头像进入「Integrations」页面。在「API tokens」部分你可以看到你的默认token也可以创建新的token。复制这个以apify_api_开头的字符串。3.3 API密钥矩阵构建你的情报能力金字塔项目的威力与你配置的API密钥数量和质量直接相关。以下是对各服务角色的深度解读服务类别核心服务环境变量核心作用与价值成本与获取免费启动层Brave Search(Claude内置)广度覆盖。提供每月约2000次的基础网页搜索是Phase 1“第一轮齐射”的免费火力基础。通常内置于Claude Code等智能体无需配置。Jina AIJINA_API_KEY内容理解。将任意网页URL转换为干净、结构化的Markdown文本。在Phase 2用于深入阅读搜索到的文章、博客提取核心内容。免费额度充足 官网 申请。ApifyAPIFY_API_TOKEN结构化抓取。访问55个针对特定平台的执行器是获取社交媒体等平台深层结构化数据的核心手段。免费额度约$5/月 Apify控制台 获取。推荐付费层Perplexity APIPERPLEXITY_API_KEY智能问答与深度研究。sonar模型用于快速、精准的问答式搜索deep-research模型能对复杂问题进行多步骤推理和综合。是提升信息质量和洞察深度的关键。按使用量计费约$5/月起 设置页面 获取。Exa AIEXA_API_KEY语义与实体搜索。不仅按关键词更能按“概念”搜索。其“人物搜索”、“公司搜索”功能对OSINT尤其有用能发现强关联实体。按使用量计费约$5/月起 控制台 获取。TavilyTAVILY_API_KEYAI优化搜索。专为AI智能体设计返回的结果已经过相关性优化和摘要处理并附带来源引用简化了信息处理流程。每次搜索成本极低$0.005 官网 注册。高级能力层Bright DataBRIGHTDATA_MCP_URL突破限制。提供住宅代理IP、自动CAPTCHA破解、绕过登录墙等功能。用于抓取那些对普通爬虫屏蔽严格或需要登录的平台如某些Facebook数据。成本较高$10/月功能强大 MCP服务页面 获取。配置方式推荐 为了安全和管理方便强烈建议使用环境变量方式。你可以在终端会话中直接设置但更佳做法是将其添加到你的shell配置文件如~/.bashrc,~/.zshrc中# 编辑配置文件 nano ~/.zshrc # 在文件末尾添加如下行替换为你的真实密钥 export PERPLEXITY_API_KEYpplx-你的密钥 export EXA_API_KEYexa-你的密钥 export APIFY_API_TOKENapify_api_你的令牌 export JINA_API_KEYjina_你的密钥 export TAVILY_API_KEYtvly-你的密钥 # 保存退出后使配置生效 source ~/.zshrc之后你可以通过echo $PERPLEXITY_API_KEY来验证变量是否已正确设置。所有脚本都会优先从环境变量中读取这些密钥。4. 核心脚本工作流与实操指南理解了架构和配置后我们深入到核心脚本看看它们是如何协同工作的。我们将跟随一个典型的调查任务一步步拆解。4.1 启航诊断与准备 (diagnose.sh)在开始任何调查之前运行自检脚本是必须的。这不仅能发现问题也能让你清楚当前环境具备哪些能力。# 进入技能目录的脚本文件夹 cd osint-skill/osint/scripts # 执行诊断 bash diagnose.sh这个脚本会系统性地检查基础命令curl,jq,python3,node是否存在且版本大致兼容。API密钥遍历所有支持的环境变量PERPLEXITY_API_KEY,APIFY_API_TOKEN等报告哪些已设置、哪些缺失。Apify连接尝试用你的APIFY_API_TOKEN调用一个简单的Apify API验证令牌是否有效。可选工具检查mcpcApify MCP客户端等高级工具是否可用。输出示例[OK] curl is available. [OK] jq is available. [OK] python3 is available. [OK] node is available (v18.19.0). [FOUND] PERPLEXITY_API_KEY is set. [MISSING] EXA_API_KEY is not set. Some features will be limited. [OK] APIFY_API_TOKEN is valid.这份报告就是你当前“情报能力”的体检表。根据它你可以决定是继续任务还是先去补充缺失的密钥。4.2 第一轮齐射广谱信息收集 (first-volley.sh与merge-volley.sh)假设我们要调查的目标是 “John Doe”。AI智能体会触发Phase 1核心是first-volley.sh脚本。这个脚本的聪明之处在于它的并行执行策略。它不会傻傻地一个接一个搜索而是利用操作符将多个搜索任务放到后台同时运行。例如它可能同时发起以下请求向Brave Search查询 “John Doe”。向Perplexity Sonar提问“Who is John Doe? Provide a summary.”向Tavily搜索 “John Doe”。向Exa进行 “people search” 查询 “John Doe”。每个搜索任务都被包装成一个独立的子进程并写入一个临时结果文件。脚本会等待所有任务完成或超时。由于各API响应速度不同这种并行化能将原本可能需要数十秒的顺序查询压缩到最慢的那个API响应的时间内。接下来是merge-volley.sh。并行搜索带来了海量、重复、格式不一的结果。这个脚本的任务是“融合与去重”。数据提取使用jq从每个API返回的JSON中提取出核心字段url来源、title标题、content/snippet内容摘要、score相关性得分如果有。去重基于URL和内容片段进行模糊去重避免同一篇文章被不同搜索引擎返回多次。分组与排序可能根据域名、内容类型或相关性得分对结果进行初步分组和排序形成一个更整洁、更有条理的初步发现列表。这个合并后的列表就是Phase 1.5内部情报和Phase 2平台提取的“行动指南”。4.3 精准打击平台数据提取 (apify.sh与run-actor.sh)假设从合并结果中发现了一个LinkedIn个人资料链接linkedin.com/in/johndoe。现在进入Phase 2需要调用Apify的LinkedIn执行器来抓取详细信息。AI智能体不会直接去写复杂的Node.js代码它只需要调用封装好的apify.sh脚本# 使用 apify.sh 脚本调用 LinkedIn Profile Scraper 执行器 bash apify.sh run-actor linkedin-profile-scraper {\url\: \https://www.linkedin.com/in/johndoe\, \format\: \json\}背后发生了什么apify.sh是一个便捷的包装脚本它最终会调用更通用的run-actor.sh。run-actor.sh是一个bash脚本它的核心是启动内嵌的run_actor.jsNode.js程序。run_actor.js这个Node.js程序才是与Apify平台通信的“引擎”。它执行以下操作根据提供的执行器ID如apify/linkedin-profile-scraper或名称在Apify平台上查找并启动该任务。将输入参数如上面的JSON传递给任务。开始轮询任务状态直到任务完成、失败或超时。任务完成后从Apify平台下载结果数据集通常是JSON或CSV文件到本地。关键参数解析run-actor: 子命令表示要运行一个执行器。linkedin-profile-scraper: 这是Apify商店中该执行器的唯一标识符。osint-skill的references/tools.md文件维护了一个包含55个此类标识符的目录。{\url\: \...\, \format\: \json\}: 这是一个JSON字符串是传递给执行器的输入参数。不同的执行器需要不同的参数这需要查阅Apify上该执行器的文档。run_actor.js脚本负责将这个JSON字符串安全地传递过去。对于Instagram、TikTok等平台流程完全一样只需更换执行器ID和对应的输入参数如用户名、帖子URL等。这种设计提供了惊人的灵活性只要Apify上有对应的执行器你就能通过几乎相同的命令格式获取数据。4.4 深度分析与内容理解 (jina.sh,perplexity.sh)当脚本抓取到一篇关于目标的博客文章或新闻报道的URL时就需要进入“理解”阶段。使用jina.sh进行页面内容提取# 让Jina AI读取并总结一个网页 bash jina.sh read https://example.com/blog/john-doe-interview这个脚本会调用Jina AI的“读取器”API该API会智能地剥离网页中的广告、导航栏等噪音将核心文章内容转换为干净、结构化的Markdown文本返回。这比简单的HTML抓取要可靠得多为后续的信息提取和心理侧写分析提供了高质量的文本原料。使用perplexity.sh进行深度研究 对于一些复杂、开放性的问题比如“John Doe在职业生涯早期面临的主要挑战是什么”简单的关键词搜索可能不够。这时可以使用Perplexity的深度研究模式。# 使用Perplexity进行深度研究成本较高 bash perplexity.sh deep-research What were the main career challenges for John Doe in his early years?deep-research模式会指示Perplexity的模型进行多步骤的推理它可能会先搜索John Doe的早期职业经历然后查找相关行业在那段时间的普遍挑战再交叉引用具体公司的信息最后综合成一个带有详细引用的答案。这是提升情报分析深度的关键工具。5. 常见问题、故障排查与实战技巧在实际操作中你一定会遇到各种问题。以下是我在测试和使用中积累的常见问题清单和解决思路。5.1 环境与依赖问题问题1脚本执行报错command not found: jq或Syntax error near unexpected token。原因jq未安装或者你在Windows的CMD/PowerShell中直接运行bash脚本这些脚本是为Unix-like shell设计的。解决安装jq如前所述。确保在bash、zsh等Unix shell环境中运行。如果你使用Windows强烈建议使用WSL2 (Windows Subsystem for Linux)或 Git Bash来获得完整的Linux工具链兼容性。问题2diagnose.sh报告API密钥缺失但我明明已经设置了环境变量。原因环境变量可能没有导出到当前shell会话或者脚本执行的环境如通过某些AI智能体调用没有继承这些变量。解决在终端中直接echo $YOUR_API_KEY确认变量是否存在且值正确。检查你是否在同一个终端会话中设置了变量并运行脚本。重启终端后需要重新source你的配置文件或重新设置变量。对于AI智能体调用的情况需要查阅该智能体的文档了解它如何读取环境变量。有些智能体可能需要你在其图形界面或配置文件中单独设置。问题3Node.js版本过低run_actor.js运行出错。原因run_actor.js可能使用了较新的JavaScript特性如ES模块需要Node.js 18或更高版本。解决使用node --version检查。如果版本低于18请从Node.js官网下载并安装最新的LTS版本。在macOS上使用nvmNode Version Manager管理多个Node版本是更佳实践。5.2 API与服务相关问题问题4Apify任务启动失败返回认证错误。原因APIFY_API_TOKEN无效、过期或者没有足够的免费额度来启动该执行器。解决登录 Apify Console 在「Usage」页面检查剩余免费额度。在「Integrations - API tokens」页面确认你使用的token状态为“Active”。你可以尝试创建一个新的token替换旧的。有些高级或高消耗的执行器可能不在免费套餐范围内。尝试在Apify商店搜索功能相似的、标注为“Free”或消耗更低的替代执行器。问题5Perplexity或Exa API调用返回速率限制错误429 Too Many Requests。原因短时间内发送了过多请求触发了API的速率限制。解决添加延迟这是最有效的方法。修改调用API的脚本如perplexity.sh,exa.sh在连续请求之间使用sleep命令添加1-2秒的间隔。例如在bash循环中添加sleep 2。检查配额登录相应服务的控制台查看你的套餐的每分钟/每日请求限制。优化查询确保你的搜索查询是精准的避免因结果不相关而需要多次重试查询。问题6first-volley.sh在macOS上并行搜索后后台进程不退出。原因脚本中使用了Linux特有的tail --pid$PID -f /dev/null语法来等待后台进程结束这在macOS的tail命令中不支持。解决临时方案使用wait命令替代。你可以手动修改first-volley.sh脚本找到相关部分将tail --pid$PID ...的循环替换为简单的wait $PID。但注意wait无法实现超时功能。推荐方案安装GNU Core Utilities。在macOS上可以通过Homebrew安装brew install coreutils。安装后GNU版本的tail命令通常以gtail调用。你可以修改脚本将tail替换为gtail。5.3 数据与流程问题问题7合并后的搜索结果质量不高包含大量无关信息。原因搜索关键词过于宽泛或模糊。解决使用高级搜索语法教导你的AI智能体在构造查询时使用引号进行精确匹配John Doe、使用site:限定域名John Doe site:linkedin.com、使用-排除术语John Doe -actor -singer。分阶段细化查询不要指望一个查询解决所有问题。先进行广谱搜索Phase 1从结果中发现更具体的线索如公司名、项目名、地点再用这些线索构造更精准的Phase 2查询。问题8心理侧写结果看起来不准确或泛泛而谈。原因心理侧写的质量极度依赖于输入文本的数量和质量。如果只有几条简短的社交媒体状态分析结果必然不可靠。解决收集更多文本优先寻找目标的博客、长篇文章、公开演讲转录稿、YouTube视频描述和字幕。这些通常包含更丰富的语言模式和观点表达。人工复核始终将心理侧写视为一种辅助性洞察而非确定性结论。将其与收集到的客观事实职业变动、项目选择等结合来看可能会发现有趣的关联但切勿作为唯一判断依据。问题9运行成本超出预期。原因没有充分利用免费层或深度研究Phase 4被过度触发。解决明确预算策略在开始前通过环境变量或AI指令设定一个明确的预算上限例如MAX_COST0.30。并提醒AI在每次可能触发付费API尤其是Perplexity Deep Research, Exa Deep前进行成本估算并请求确认。优先使用免费/低成本资源确保AI的工作流严格遵守“研究升级”逻辑先完成所有免费的Brave搜索和低成本的Tavily搜索只有在关键信息缺失或需要深度验证时才动用Perplexity Sonar或Exa标准搜索将Perplexity Deep Research作为最后的手段。监控使用量定期查看各API服务商控制台的使用量仪表盘了解哪些操作消耗了最多成本以便优化策略。5.4 安全与伦理警示重要提示osint-skill是一个强大的工具但能力越大责任越大。在项目README的“已知问题”中明确提到了“Shell注入”风险因为部分脚本直接将用户输入拼接成命令。绝对不要在不可信或未经验证的用户输入上运行这些脚本。伦理使用仅将此类工具用于合法的目的如对公开人物的背景调研、尽职调查、学术研究或个人数字足迹管理。尊重隐私遵守相关法律法规如GDPR和服务条款。数据验证永远记住“垃圾进垃圾出”。自动化工具收集的信息必须经过人工交叉验证和逻辑判断尤其是置信度评分较低C/D级的信息。资源节制避免对单一目标发起过高频率的请求以免对目标网站造成不必要的负载甚至导致你的IP或API密钥被封锁。6. 项目结构深度解读与自定义扩展理解项目的目录结构能帮助你更好地使用和定制它。osint-skill/ ├── osint/ # 核心技能目录 │ ├── SKILL.md # **技能主文件**。AI智能体通过阅读此文件来理解本技能的能力、命令和用法。 │ ├── references/ # **知识库与参考** │ │ ├── tools.md # **工具大全**。详细列出所有55个Apify执行器的ID、描述、输入参数和示例。这是调用平台抓取功能的“字典”。 │ │ ├── platforms.md # **平台指南**。针对LinkedIn、Instagram等具体平台提供搜索技巧、个人资料URL模式等OSINT专项建议。 │ │ ├── content-extraction.md # **内容提取指南**。如何从视频、音频、PDF等不同格式中提取文本。 │ │ └── psychoprofile.md # **心理侧写方法论**。解释MBTI/Big Five模型如何应用于文本分析为AI生成侧写提供理论框架。 │ ├── assets/ │ │ └── dossier-template.md # **档案输出模板**。定义最终报告的Markdown结构包含哪些章节如基本信息、职业轨迹、数字足迹、心理侧写、置信度摘要等。 │ └── scripts/ # **可执行脚本库**前文已详细解析 └── LICENSE, README.md 等文件如何进行自定义扩展集成新的API服务如果你想加入另一个搜索或数据API例如一个专查企业信息的API你需要在scripts/目录下创建一个新的.sh脚本例如newservice.sh封装对该API的调用、错误处理和结果解析。在SKILL.md文件中新增一段关于该脚本的描述、使用语法和示例。在references/tools.md中补充该服务的说明。修改档案模板如果你觉得默认的dossier-template.md不符合你的报告需求可以直接修改它。你可以增加新的章节如“风险标识”、“关联网络图”或者调整现有章节的格式。添加新的Apify执行器Apify商店不断有新的执行器上架。当你发现一个有用的新执行器时只需将其ID和用法添加到references/tools.md文件中。run-actor.sh脚本是通用的可以运行任何有效的Apify执行器ID。调整置信度评分逻辑目前评分逻辑可能内嵌在AI的提示词或后续处理脚本中。要修改它你需要理解AI是如何执行Phase 3的并调整相应的提示词或开发一个专门的数据比对与评分脚本。这个项目的设计是模块化和开放的它为你提供了一个强大的OSINT自动化框架而具体的“武器”API和“战术”工作流可以根据你的具体需求和道德法律边界进行灵活配置与扩展。