Claude CLI + Kali = 黑阔糕手
关注泷羽Sec和泷羽Sec-静安公众号,这里会定期更新与 OSCP、渗透测试等相关的最新文章,帮助你理解网络安全领域的最新动态。后台回复“OSCP配套工具”获取相关的工具
之后用到的Claude命令可以参考以上链接。Claude本身就是很强的工具,把他接在Kali上,让Claude直接调用Kali本身的工具,就能化身一个黑客糕手。
Claude安装
安装和使用,修改/etc/proxychains.conf文件(科学上网)
[ProxyList]
# socks5 127.0.0.1 1080 # 本地 SOCKS5(如 Clash/V2Ray)
# socks4 127.0.0.1 9050 # Tor
http 172.168.169.1 7897 # 科学上网的Clash的地址和端口这里的172.168.169.1就是虚拟机里面物理机的地址。一般在登录kali虚拟机的终端后会显示。


记得clash打开局域网可用的选项,这样你的Clash只用安装在本机,所有的虚拟机都可以科学上网了。之后再在终端中
proxychains -q curl -fsSL https://claude.ai/install.sh | bash选择美国或者日本,韩国的,新加坡和香港的有概率挂。安装好后启动
proxychains -q claude可以使用Claude审计代码

梭哈CTF题目,pwn题和逆向题再也不是难点,连WP都是AI写了

第一次使用会提示登录Claude,按要求打开网站,申请Key之后复制网页给出的key即可登陆成功。但是如果你没有Claude账户,或者嫌贵和科学上网麻烦的话,也可以接入Deepseek和阿里千问,Claude CLI除了可以使用自家的Claude,也可以接入其他大模型。
接入Deepseek
环境变量中配置
进入项目目录
cd my-project安装 Claude Code 后,我们在终端中设置以下环境变量:
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=sk-
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
claude参数说明:
API_TIMEOUT_MS=600000:设置 10 分钟超时,防止输出过长触发客户端超时ANTHROPIC_MODEL:指定使用 deepseek-chat 模型CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1:禁用非必要流量
启动 Claude Code 后,如果不关闭当前的终端,再次指定使用 DeepSeek只需要:
claude --model deepseek-chat或在交互模式中切换:
/model deepseek-chat输入 /model 可以查看支持的模型:
接入阿里云百炼
export ANTHROPIC_BASE_URL=https://dashscope.aliyuncs.com/apps/anthropic
export ANTHROPIC_AUTH_TOKEN=sk-
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=qwen3-coder-plus
export ANTHROPIC_SMALL_FAST_MODEL=qwen3-coder-plus
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
claude申请的 API key https://bailian.console.aliyun.com/cn-beijing/?tab=model#/api-key
其他的大模型可以自行翻阅其官网的API文档查看其是否支持Anthropic的调用协议,支持的话也是相似的配置就能使用。
接入本地Ollama
deepseek和千问大批量调用的时候,多少还是要产生token费用,还受限于网速。在一些断网环境的CTF比赛中,或者在一些有保密要求的代码审计场景下,就需要使用本地大模型。
Windows物理机都安装了Ollama和Claude CLI
Claude Code可以配置为使用 Ollama 作为后端。
ollama launch claude这会提示你选择模型,自动配置 Claude 代码并启动它。不启动的情况下配置:
ollama launch claude --config
Ollama 跨虚拟机调用(Windows物理机安装Ollama,Kali虚拟机安装Claude)
Windows物理机上下载Ollama,拉取镜像后,然后在Kali虚拟机中测试
irm https://ollama.com/install.ps1 | iex
ollama pull qwen3:0.6b第一次安装推荐先装一个小模型,下载和测试比较快,之后觉得性能不行的,可以自行根据需要安装更大的模型。
curl -s http://172.168.169.1:11434/v1/messages \
-H "Content-Type: application/json" \
-d '{"model":"qwen3:0.6b","max_tokens":1000,"messages":[{"role":"user","content":"你好,你是谁"}]}' \
| python3 -c "
import sys,json
d=json.load(sys.stdin)
for b in d['content']:
if b['type']=='thinking':
print('💭 思考:\n'+b['thinking'])
print('─'*40)
elif b['type']=='text':
print('💬 回答:\n'+b['text'])
"ollama的文档已经给出了直接调用的方式,写入一行命令里就是
ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 ANTHROPIC_API_KEY="" claude --model qwen3-coder这里不用修改APIkey,留空即可,这个字段是Claude调用需要这个参数,但是ollama本地模型不需要key。如果想要写入永久配置的文件就修改.bashrc 添加下面的命令
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_API_KEY=""然后以后每次启动终端就只需要输入
claude --model qwen3-coder
但是笔记本的性能很大程度上制约了回答的能力,速度慢是大问题,回答一个你好花了2分钟。这是我当时运行时的电脑系统信息和内存信息。因为开了一个虚拟机kali,我在kali里面用Claude CLI,然后Claude再调用物理机上安装的ollama(有点套娃)。

如果不在虚拟机里面用claude而是直接再windows物理机上使用Claude的话内存占用小一些,也许速度会略快(AI误操作删除文件的时候也很快)。不在kali中安装ollama的原因是因为给kali分配空间太小而无法安装ollama。指望这个轻薄办公本上跑的小模型去解决模型使用场景遇到的问题是不现实的,反应太慢了,而且很多功能小模型并不具备。比如下图的qwen3
.6B就具备图片的功能。
本地跑大模型要什么配置(含渗透测试场景)
https://www.bilibili.com/video/BV11E421u7ku/ https://lmstudio.ai/
参考一些技术博主给的配置,这是只跑AI的场景,没有考虑到跑Kali虚拟机的情况。

渗透测试场景专项配置
正对两个常见的渗透场景的配置如下:
🖥️ 场景一:本地 Windows 笔记本 + Kali 虚拟机
定位: 个人安全研究 / CTF / 日常渗透辅助
典型用途: Ollama 本地模型辅助漏洞分析、exploit 代码生成、报告撰写
资源分配策略
宿主机(Windows)
├── 系统保留:4GB内存 + 2核
├── AI推理(Ollama/LM Studio):8~12GB内存 + GPU显存
└── Kali虚拟机
├── 内存:8GB
├── CPU:2核4线程
└── 用途:渗透工具链(nmap/burp/msf等)硬件需求
| 组件 | 最低配置 | 推荐配置 | 说明 |
|---|---|---|---|
| CPU | 六核12线程(i7-11800H) | 八核16线程(i9-13900H / Ryzen 9 7940HX) | Kali VM占2核4线程,剩余分配给AI推理 |
| GPU | 6GB显存(RTX 3060 笔记本) | 12~16GB显存(RTX 4080/4090 笔记本) | INT4量化7B模型可在6GB显存运行 |
| 内存 | 32GB(Kali 8GB + AI 12GB + 系统 12GB) | 64GB(Kali 8GB + AI 24GB + 系统 32GB) | 32GB是实际最低门槛,16GB无法同时跑VM+AI |
| 存储 | 512GB NVMe SSD | 1TB NVMe SSD(读速3500MB/s+) | 模型文件+Kali快照+数据集 |
| 网络 | 千兆以太网 | 千兆以太网 + WiFi 6 | Kali VM配Host-only + NAT双网卡 |
推荐 AI 模型选择(本地笔记本)
| 模型 | 参数量 | 显存需求 | 渗透场景适用性 |
|---|---|---|---|
| llama3.2 | 3B | ~2GB | 快速问答、简单脚本生成 |
| mistral | 7B INT4 | ~4GB | 漏洞分析、exploit思路 |
| codellama | 7B | ~5GB | Python/C exploit代码生成 |
| deepseek-coder.7b | 6.7B | ~4GB | 代码审计、POC编写 ✅推荐 |
| qwen2.5 | 7B | ~5GB | 中文报告生成、CTF writeup |
联通的途径为:KaliVM借助Host-only网卡直接访问宿主机上的OllamaAPI,其地址是
http://192.168.x.x:11434,如此便无需在VM内部部署模型,进而实现节省VM内存的效果。
☁️ 场景二:云服务器 Kali + Claude + Ollama(+ OpenClaw)
定位: 云端渗透环境 / 团队共享 AI 辅助平台
典型用途: 长时间任务自动化、多人协作、模型不受本地硬件限制
云服务器配置建议
| 规格档次 | vCPU | 内存 | 显存/GPU | 存储 | 月费估算 | 适用模型 |
|---|---|---|---|---|---|---|
| 入门档(够用) | 8核 | 32GB | 无GPU | 200GB SSD | ~$60-100 | Ollama CPU推理,3B/7B INT4(慢) |
| 推荐档 | 8核 | 32GB | T4 16GB | 200GB SSD | ~$300-500 | 7B FP16 / 13B INT4,流畅推理 |
| 高性能档 | 16核 | 64GB | A10G 24GB | 500GB SSD | ~$800-1200 | 13B FP16 / 70B INT4 |
| 旗舰档 | 32核 | 128GB | A100 80GB | 1TB SSD | ~$2000+ | 70B FP16,生产级部署 |
云厂商推荐:AWS(g4dn.xlarge 起步)、Lambda Labs(性价比高)、AutoDL(国内,价格低)、腾讯云/阿里云 GPU实例
关键结论与选购建议
个人渗透用户
- 本地笔记本首选: RTX 4080笔记本(16GB显存)+ 64GB内存(Kali VM + AI同跑必须)+ 1TB NVMe
- 预算有限: RTX 3060(12GB)+ 32GB内存 + INT4量化7B模型(够用)
- 内存是本地双环境最大瓶颈,不是显存
云端渗透环境
- 入门推荐: Lambda Labs A10 实例(24GB显存,性价比最高)
- 国内推荐: AutoDL 3090/4090 实例(按小时计费,成本极低)
- Claude API + Ollama 本地模型 + LiteLLM 代理是最灵活的架构
避坑提示
- 显存不足优先用 GGUF INT4/INT8量化(llama.cpp),可大幅降低需求
- 笔记本跑Kali VM + AI,内存 < 32GB 基本不可用,优先升内存
- 云服务器无需买GPU做推理,按小时租用GPU实例(AutoDL、Lambda)更划算
- 显存容量(GB)> GPU算力(TFLOPS),大模型运行的硬性瓶颈永远是显存
扩展玩法:接入OpenClaw

Claude CLI本身很强了,配合Kali系统中再带的各种网络安全工具更是强上加强,那么还能不能更强呢?有的,兄弟有的!接入OpenClaw变身黑阔糕手龙虾!龙虾届的新品种!
https://openclaw.ai/ https://github.com/xianyu110/awesome-openclaw-tutorial https://www.bilibili.com/video/BV1jEAaz3E6K/ https://cloud.tencent.com/act/pro/lighthouse-moltbot?from=29651
OpenClaw具备相较于Claude的优势在于,其能够支持对聊天软件的接入操作,并且还可以在云端进行部署。对于从事日常办公业务的人员来说,此优势或许颇为必要,例如仅依靠口头交流来收发邮件,搜集信息,整理报告以及开展重复性办公事务这类情况。真正能让很多为生计奔波的打工者也能感受到当领导仅靠言语差遣去干活的乐趣,OpenClaw支持通过语言识别来下发任务,纯粹就是动动嘴,压根都不需要去打字。但是就当下情况而言对于处于渗透场景中的用户目前看来或许难以提供明显助力。
- 其一,是因为其自身作为一项需要高度集中精力,开展情报分析,进行poc执行以及进行研判的流程。各位擅长电脑操作的高手已经处于电脑前的状态,因此对于存在外出场景且需要靠动口支使人干活的需求相对较低。
- 第二点而言,OpenClaw和当下的大型模型还不能达到足够智能的程度,进而无法完整取代渗透测试的全部流程工作,要么是人工智能如虾写🦞,要么是出现误操作致使删库这类状况。可以交由OpenClaw来承担的工作例如信息收集,巡航扫描这类简单的任务,或许可以,也能一定程度上提高渗透效率。
- 其三,当前OpenClaw存在许多漏洞,并且有大量Skiil模板会实施投毒行为,致使用户的凭证信息出现暴露情况。原本计划借助OpenClaw对靶机开展相关操作,但是实际情况是自身反而成为了靶机。
所以在此仅提供一个官网与教程帖,若有兴趣便进一步钻研,诸位既可自行去安装尝试,也可前往腾讯大门口排队领取龙虾。
总结
近年来,人工智能迅猛发展,人工智能大模型不断参与排行榜角逐,人工智能所衍生出的产品也多种多样,有龙虾,有羊驼。也许将来某天的桌面就是一堆动物,动物栏:桌面牧场(地球online)了属于是。

网页之中满是各类由人工智能生成的文字以及相关广告与网站内容。根据我自身探究黑灰产的经验来看,黑灰产背景的黑客是率先将人工智能加以运用的群体。从最初出现的借助人工智能进行换脸的明星相关成人视频,到当下利用人工智能自动生成用于刷搜索引擎优化的垃圾站点,以及人工智能所编写的半自动乃至自动的攻击工具与免杀工具。身为网络安全领域的从业者,秉持“师夷长技以制夷”的理念,我认为除钻研漏洞渗透相关的知识外,研习人工智能相关内容也很有必要,如此可让自身知识储备及可运用手段更为丰富多样,进而扩充自身知识库与应对策略的储备。
🔔 想要获取更多网络安全与编程技术干货?
关注 泷羽Sec-静安 公众号,与你一起探索前沿技术,分享实用的学习资源与工具。我们专注于深入分析,拒绝浮躁,只做最实用的技术分享!💻
马上加入我们,共同成长!🌟
👉 长按或扫描二维码关注公众号
直接回复文章中的关键词,获取更多技术资料与书单推荐!📚
推荐阅读