Read latest product features, solutions, and updates.
• 总参数:3970亿(397B) • 激活参数:170亿(17B)— MoE架构,推理时只激活5% • 上下文:百万级别(支持长上下文agent场景)
Gemini cli oauth free和pro额度区别:Free 用户:每天 1000 requests,限速 60 requests/min Google AI Pro 用户:每天 1500 requests,限速 120 requests/min

我测试了很多模型,发现Qwen3 14B (gguf, Q4_K_M)是最佳的模型
Openclaw和Mac Mini(Studio)是绝配,就算Win也没太大的意义,一个简单的关显示器,Win是要写个脚本来运行,而Mac只需要一个命令
可以把 Tool 想成一段真正的代码工具,负责执行实际的流程。 而 Skill 更像在教 AI 怎么“理解”和“说话”,通过提示词来引导智能体做决策。
- 每次模型回答时,用的是: 『基础注入(开局一次) + 本轮工具/命令结果(如 memory_search 命中的片段) + 当前会话的对话上下文』
花了很多时间研究的openclaw memory的顺序和作用机制

这份指南按 OpenClaw 官网「QMD backend (experimental)」思路整理: - **Markdown 是“记忆源数据”** - **QMD 是本地检索引擎(BM25 + 向量 + rerank)**,用来减少上下文 token(需要记忆时再检索注入) > 适用:macOS(本机自托管 Gateway)。

为了流量或平台奖励,用 AI 大规模生产的“看似有用、实则空洞”的内容垃圾

用agent抓X/Reddit热点:本质是“需求雷达”

AI最稳的赚钱套路:用agent降成本,把信息/意图卖出去

总结下win下安装OpenClaw和配置的过程

GCloud CLI把你在 GCP 上的所有东西,用命令行做成可复制、可自动化的流程(部署、扩容、备份、监控、成本控制、权限管理)。

处于某些原因,人在海外就尽量不要用国内生态,而且目前业务和国内无关

Codex是Openai的ChatGPT OAuth,订阅就可以免费使用Moltbot,所以省钱啊!

走通了Moltbot(Clawdbot)+ Notion 做笔记的配置,写个日志

Moltbot(也就是Clawdbot)使用报告

base模型完全不可玩,肢体不行,美学不行,nsfw太可怕了,速度非常慢 5090 30s一张1.5k

Wan2.2 lora训练爆OOM了,白费了一个晚上

如果追求最终成片质量与稳定性,Wan2.2 仍然更适合作为主力;LTX-2 更适合作为“快速迭代/预演/口播类内容”的补充工具。

实操的AI-Toolkit训练ltx-2 Lora笔记,从部署到参数到注意点

LTX2 lora训练还是有必要的,因为i2v功能太弱了,出来的图片比较崩!

工作流处理图片场景和人物的多角度lora,可实现分镜功能

尝试了混元世界模型,距离我想要的虚拟世界实用应用还有距离,用“小世界”解决短剧的场景一致性问题

就LTX-2而言,t2v+LoRA出视频,比i2v生成的人物一致性强

小白也能进行LTX2 lora的训练,有详细的教程

根据本人和朋友的情况总结了2026公众号千次阅读收益经验总结收入情况

MinIO进入维护模式了,25年10月后就不更新了,但是对s3存储的服务,它用起来很顺手啊

这两年最明显的变化之一,就是AI爬虫和各类自动化蜘蛛几乎无处不在

LTX-2 图生视频至少要fp8版本才清晰

I’m Chen Lincai, an IT developer. I build and maintain websites, automate workflows with AI agents, create ComfyUI pipelines, and handle server deployment & operations.